<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" xmlns:dc="http://purl.org/dc/elements/1.1/">
  <channel>
    <title>Talks (SemWeb.Pro) RSS Feed</title>
    <description></description>
    <link>https://cms.semweb.pro/Talk</link>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/1135</guid>
  <title>État des travaux en cours au W3C et perspectives</title>
  <link>https://cms.semweb.pro/talk/1135</link>
  <description>&lt;p&gt;&lt;a class=&quot;reference&quot; href=&quot;http://www.w3.org/People/Ivan/&quot;&gt;Ivan Herman&lt;/a&gt; est &lt;strong&gt;responsable des activités liées au Web sémantique au W3C&lt;/strong&gt;.&lt;/p&gt;
&lt;p&gt;Il présentera l&#39;état des travaux actuellement en cours au W3C concernant le Web sémantique et les perspectives d&#39;avenir. En particulier, seront présentés SPARQL 1.1, RDFa 1.1, R2RML et les discussions concernant les évolutions de RDF.&lt;/p&gt;</description>
  <dc:date>2010-12-01T11:33+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/1157</guid>
  <title>EMFTriple : connecter les objets au Web sémantique</title>
  <link>https://cms.semweb.pro/talk/1157</link>
  <description>&lt;p&gt;Guillaume Hillairet est actuellement chercheur chez &lt;strong&gt;Ericsson Ireland&lt;/strong&gt; et termine une thèse de doctorat en informatique au laboratoire L3i de l&#39;université de La Rochelle. Ses travaux portent sur l&#39;étude de correspondances entre modèles objet et le modèle de données RDF. Ses domaines d&#39;intérêt sont les technologies du Web sémantique et l&#39;ingénierie dirigée par les modèles (MDE).&lt;/p&gt;
&lt;p&gt;EMFTriple_ est un projet open source permettant aux applications développées à partir de modèles EMF (Eclipse Modeling Framework) d&#39;accéder aux sources de données RDF.&lt;/p&gt;
&lt;p&gt;Les technologies du Web sémantique (RDF, OWL et SPARQL) ont permis la création d&#39;importantes sources de données interconnectées (Linked Data), telles que les données gouvernementales des Etats-Unis et du Royaume-Uni, ou bien encore des informations issues de Wikipedia via DBpedia. Néanmoins, les solutions visant à faciliter le développement d&#39;applications pour le Web sémantique se font attendre.&lt;/p&gt;
&lt;p&gt;Des solutions telles &lt;strong&gt;ActiveRDF&lt;/strong&gt;, &lt;strong&gt;Empire&lt;/strong&gt;, &lt;strong&gt;Spira&lt;/strong&gt;, &lt;strong&gt;Elmo&lt;/strong&gt;, etc., permettent au développeur de se concentrer sur la logique et l&#39;implémentation du modèle de domaine de l&#39;application et laissent le soin a ces outils de gérer les accès aux sources de données RDF. Le projet que nous présentons s&#39;inspire de ces différents outils de mapping entre objets et triplets RDF, ou OTM. Le projet EMFTriple résulte de recherches menées dans le cadre de l&#39;étude de correspondances entre modèles objet et le modèle de données RDF, afin d&#39;améliorer les fonctionnalités des OTMs.&lt;/p&gt;
&lt;p&gt;EMFTriple repose sur le &lt;em&gt;framework&lt;/em&gt; de modélisation de la plateforme Eclipse (EMF). Ce dernier, associé aux différents outils d&#39;Eclipse, permet le développement d&#39;applications en un minimum de temps. Le type d&#39;applications pouvant être développées à l&#39;aide d&#39;EMF allant d&#39;applications RCP, aux clients Web riches notamment grâce à Eclipse RAP et plus récemment sous la forme d&#39;applications GWT.&lt;/p&gt;
&lt;p&gt;EMFTriple implémente les principales interfaces de JPA (Java Persistence API), supporte les transactions, l&#39;accès simultané à plusieurs entrepôts de données RDF et services SPARQL. EMFTriple supporte le langage JPQL (Java Persistence Query Language) pour l&#39;interrogation de sources de données RDF.&lt;/p&gt;
&lt;p&gt;Le langage SPARQL, dans sa version 1.1 est également supporté. EMFTriple permet actuellement l&#39;utilisation d&#39;entrepôts RDF à travers les bibliothèques Jena et Sesame Sail. Le support d&#39;autres types d&#39;entrepôts est en cours de développement notamment pour BigData, 4Store et Neo4j-rdf.&lt;/p&gt;
&lt;ul class=&quot;simple&quot;&gt;
&lt;li&gt;[EMFTriple](&lt;a class=&quot;reference&quot; href=&quot;http://emftriple.googlecode.com&quot;&gt;http://emftriple.googlecode.com&lt;/a&gt;)&lt;/li&gt;
&lt;li&gt;[ActiveRDF](&lt;a class=&quot;reference&quot; href=&quot;http://www.activerdf.org&quot;&gt;http://www.activerdf.org&lt;/a&gt;)&lt;/li&gt;
&lt;li&gt;[Empire](&lt;a class=&quot;reference&quot; href=&quot;http://github.com/clarkparsia/Empire&quot;&gt;http://github.com/clarkparsia/Empire&lt;/a&gt;)&lt;/li&gt;
&lt;li&gt;[Spira](&lt;a class=&quot;reference&quot; href=&quot;http://spira.rubyforge.org/&quot;&gt;http://spira.rubyforge.org/&lt;/a&gt;)&lt;/li&gt;
&lt;li&gt;[Elmo](&lt;a class=&quot;reference&quot; href=&quot;http://www.openrdf.org/&quot;&gt;http://www.openrdf.org/&lt;/a&gt;)&lt;/li&gt;
&lt;/ul&gt;
&lt;div class=&quot;system-messages section&quot;&gt;
&lt;h3&gt;&lt;a&gt;Docutils System Messages&lt;/a&gt;&lt;/h3&gt;
&lt;div class=&quot;system-message&quot;&gt;&lt;b&gt;ReST / HTML errors:&lt;/b&gt;System Message: ERROR/3 (&amp;amp;lt;string&amp;amp;gt; , line 3); &amp;lt;em&amp;gt;backlink&amp;lt;/em&amp;gt;&amp;lt;/p&amp;gt;
&lt;/div&gt;Unknown target name: &quot;emftriple&quot;.&lt;/div&gt;</description>
  <dc:date>2024-05-03T14:23+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/1182</guid>
  <title>CubicWeb, un cadre applicatif pour le web sémantique</title>
  <link>https://cms.semweb.pro/talk/1182</link>
  <description>&lt;p&gt;Nicolas Chauvat est fondateur et PDG de la société &lt;strong&gt;Logilab&lt;/strong&gt;.&lt;/p&gt;
&lt;p&gt;CubicWeb_ est une plateforme conçue pour le web sémantique. Elle permet de développer et maintenir efficacement des applications web qui présentent une interface homme-machine en HTML et offrent un accès direct aux données sous-jacentes via SPARQL et RQL (le langage natif de CubicWeb).&lt;/p&gt;
&lt;p&gt;Ses principales caractéristiques sont:&lt;/p&gt;
&lt;ul class=&quot;simple&quot;&gt;
&lt;li&gt;un moteur qui exploite le modèle de données explicite de l&#39;application,&lt;/li&gt;
&lt;li&gt;un langage de requête interne nommé RQL similaire à W3C’s SPARQL (lequel est aussi disponible),&lt;/li&gt;
&lt;li&gt;un mécanisme de sélection+adaptation+vues  pour la génération automatique de HTML/XML/JSON/text/RDF,&lt;/li&gt;
&lt;li&gt;une librairie de composants ré-utilisables  (modèle de données et vues) qui répondent à des besoins communs,&lt;/li&gt;
&lt;li&gt;la force et la flexibilité du langage de programmation Python et le respect des principes de conception objet,&lt;/li&gt;
&lt;li&gt;la fiabilité des bases de données SQL, des annuaires LDAP, Subversion et  Mercurial pour de nombreux programmes de stockage.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Développée depuis 2000 avec un effort soutenu de R&amp;amp;D, supportant des centaines de milliers de visites quotidiennes sur certains sites en production, &lt;em&gt;CubicWeb&lt;/em&gt; est aujourd&#39;hui développée par une communauté d&#39;entreprises en croissance.&lt;/p&gt;
&lt;p&gt;La présentation exposera les principes de CubicWeb en les illustrant par des exemples et des applications réelles.&lt;/p&gt;
&lt;p&gt;**[CubicWeb]**(&lt;a class=&quot;reference&quot; href=&quot;http://www.cubicweb.org/&quot;&gt;http://www.cubicweb.org/&lt;/a&gt;)&lt;/p&gt;
&lt;div class=&quot;system-message&quot;&gt;&lt;b&gt;ReST / HTML errors:&lt;/b&gt;System Message: WARNING/2 (&amp;amp;lt;string&amp;amp;gt; , line 23); &amp;lt;em&amp;gt;backlink&amp;lt;/em&amp;gt;&amp;lt;/p&amp;gt;
&lt;/div&gt;Inline strong start-string without end-string.&lt;div class=&quot;system-messages section&quot;&gt;
&lt;h3&gt;&lt;a&gt;Docutils System Messages&lt;/a&gt;&lt;/h3&gt;
&lt;div class=&quot;system-message&quot;&gt;&lt;b&gt;ReST / HTML errors:&lt;/b&gt;System Message: ERROR/3 (&amp;amp;lt;string&amp;amp;gt; , line 3); &amp;lt;em&amp;gt;backlink&amp;lt;/em&amp;gt;&amp;lt;/p&amp;gt;
&lt;/div&gt;Unknown target name: &quot;cubicweb&quot;.&lt;/div&gt;</description>
  <dc:date>2024-05-03T14:24+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/1171</guid>
  <title>La fédération de données par les technologies sémantiques</title>
  <link>https://cms.semweb.pro/talk/1171</link>
  <description>&lt;p&gt;François Paulus est fondateur et président de la société &lt;strong&gt;Semsoft&lt;/strong&gt;. Auparavant, François Paulus a travaillé à Orange Labs pendant 9 ans ou il a développé un véritable savoir-faire dans l’exploitation et la mise en œuvre de solution de fédération de données basée sur les technologies sémantiques. Il est titulaire d’un diplôme d&#39;ingénieur de l’Ecole National Supérieure des Télécommunications de Bretagne (promotion 1999).&lt;/p&gt;
&lt;p&gt;Semsoft (acronyme de « Semantic Software ») avec le soutien d’une équipe de recherche mixte INRIA/CNRS a développé une solution de fédération de données reposant sur les technologies sémantiques. Cette solution est la concrétisation de 10 ans de R&amp;amp;D.&lt;/p&gt;
&lt;p&gt;L’objectif majeur de notre solution est de permettre l’agrégation de données hébergées par des sources d’information hétérogènes et accessibles uniquement au travers d’interfaces de service. De façon plus précise, notre solution propose une interface d’interrogation unique au dessus de sources d’information réparties et hétérogènes afin d’offrir une vue unifiée des données opérationnelles de l’entreprise.&lt;/p&gt;
&lt;p&gt;Cette interface d’interrogation unique est définie sous la forme d’une ontologie RDFS qui s’attache à décrire précisément la sémantique des informations sujettes à interrogation. Notre solution a à sa charge la recherche des réponses aux requêtes SPARQL qui lui sont posées en identifiant les sources d’information pertinentes, en les interrogeant dans leur langage et leur vocabulaire de requêtes (qui varient d’une source à l’autre), et éventuellement en combinant (pour des besoins d’orchestration et/ou d’agrégation) leurs données (dont le format peut varier d’une source à l’autre).&lt;/p&gt;
&lt;p&gt;Contrairement à un moteur de recherche, notre solution ne dispose pas directement des données pour répondre à la requête mais seulement de descriptions abstraites appelées vues décrivant par des formules logiques et dans le vocabulaire de l’ontologie le contenu des différentes sources d’informations qu’il peut interroger. Ces vues peuvent être décrites sous la forme de fichiers de description de services web en utilisant la syntaxe SA-WSDL et les mécanismes d’extension prévus dans le langage WSDL2.0.&lt;/p&gt;
&lt;p&gt;Pour répondre à une requête, notre solution reformule donc la requête initiale en un plan de requêtes directement exécutable auprès des sources d’information pertinentes. Cette reformulation est obtenue par réécriture de la requête en termes de vues (approche de type « LAV » [1]). L’interrogation des sources d’information s&#39;effectue par le biais d&#39;adaptateurs qui servent de passerelle entre la description abstraite des données (sous la forme de vues) et les données stockées dans les sources. Concrètement les sources d’information sont invoquées au travers d’API.&lt;/p&gt;
&lt;p&gt;Semsoft propose également des extensions permettant:&lt;/p&gt;
&lt;ul class=&quot;simple&quot;&gt;
&lt;li&gt;d’enrichir le modèle sémantique sur lequel se base notre solution par la définition de règles de confidentialité [2] afin de garantir le respect de la politique de sécurité définie au sein de l’entreprise.&lt;/li&gt;
&lt;li&gt;de visualiser les résultats dans un environnement 3D généré de façon dynamique [3].&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;[1] : Alon Y. Halevy (2001). « Answering queries using views: A survey ». The VLDB Journal&lt;/p&gt;
&lt;p&gt;[2] : Said Oulmakhzoune, Nora Cuppens-Boulahia, Frédéric Cuppens and Stephane Morucci (2010). « fQuery: SPARQL Query Rewriting to Enforce Data Confidentiality ». Lecture Notes in Computer Science.&lt;/p&gt;
&lt;p&gt;[3] : Esnault, N., Royan, J., Cozot, R., and Bouville, C., &quot;A flexible framework to personalize 3D web users experience&quot;, In Proceedings of the 15th international Conference on Web 3D Technology (Los Angeles, California, July 24 - 25, 2010). Web3D &#39;10. ACM.&lt;/p&gt;</description>
  <dc:date>2024-05-03T14:25+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/1147</guid>
  <title>Asterid: Linked Data Asterisms –  Web Sémantique, Linked Data et Identité</title>
  <link>https://cms.semweb.pro/talk/1147</link>
  <description>&lt;p&gt;Grégoire Burel - Oak Group, Department of Computer Science, &lt;strong&gt;University of Sheffield&lt;/strong&gt;, Sheffield, United Kingdom&lt;/p&gt;
&lt;p&gt;L’émergence de larges répertoires de données sémantiques et interconnectées crée de nouvelles opportunités quant à l’utilisation et au partage d’informations au sein d’applications intelligentes.  Cette nouvelle façon de publier des données aide à la découverte d’informations structurées et contextuelles ainsi qu’à la réutilisation de données existantes.  Dans ce contexte, il est important pour un individu ou une organisation de distribuer ces informations selon le même principe afin d’assurer la pérennité et le partage de ces données sémantiques.&lt;/p&gt;
&lt;p&gt;Pour l’instant, la plupart des publications sur le Web de Données sont le plus souvent soit complètement ouvertes (Open Linked Data), soit complètement fermées (intranets).  De plus, la publication de ces données reste restreinte à la publication de larges ensembles de données approuvées et éditées par de larges organisations limitant ainsi la création de base de données individuelles nécessaires au développement d’un Sémantique Web centré autour de ses utilisateurs plutôt que sur ses données (Social Semantic Web).&lt;/p&gt;
&lt;p&gt;Avant de mettre à disposition ses informations, un individu ou une organisation a besoin d’être sûr que ses informations sont uniquement accessibles et modifiables par des personnes autorisées.  Dans ce contexte, il est impératif d’identifier l’entité qui publie une information particulière ainsi que la personne qui essaie d’y accéder ou de la modifier. Il requiert d’organiser le Web de Données autour de répertoires personnels et décentralisés combinant à la fois la représentation d’un individu, son identification (et authentification) ainsi que ses informations tout en gérant leur accès.&lt;/p&gt;
&lt;p&gt;Bien que le web sémantique contienne ses propres modèles identitaires (FOAF and WebID)  et  protocoles  chargés  d’identifier  et  autoriser  des  communications  entre différentes  parties  (FOAF+SSL),  il  n’existe  pour  l’instant  aucune  plateforme combinant ces différentes technologies.&lt;/p&gt;
&lt;p&gt;Asterid  est  un  serveur  de  données  sémantiques  qui  permet  d’organiser  et  de partager des informations structurées autour de répertoires de données privées et personnelles tout en supportant l’identification et authentification de leur créateur et utilisateur.&lt;/p&gt;
&lt;p&gt;Notre présentation sera l’occasion de montrer les différents modèles nécessaires au développement  d’une  telle  architecture  :  le  Web  de  données,  l’ontologie  FOAF,  le protocole  d’identification  FOAF+SSL  ainsi  que  la  gestion  de  contrôle  d’accès  sur  le Web Sémantique. Notre présentation alternera entre l’introduction de ces modèles théoriques et leur effective application dans la plateforme Asterid.&lt;/p&gt;
&lt;p&gt;Cette présentation sera l’occasion de publier Asterid  sous une licence libre. Un serveur public sera aussi mis à disposition après la présentation permettant à chacun la création et le partage d’informations  personnelles.&lt;/p&gt;</description>
  <dc:date>2010-11-22T13:48+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/1139</guid>
  <title>Table ronde: ouverture des données publiques</title>
  <link>https://cms.semweb.pro/talk/1139</link>
  <description>&lt;p&gt;Cette table ronde sera l&#39;occasion de faire dialoguer différents acteurs de l&#39;ouverture des données publiques en France:&lt;/p&gt;
&lt;ul class=&quot;simple&quot;&gt;
&lt;li&gt;Romain Lacombe, pour &lt;strong&gt;les services de l&#39;état français&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;Pierre Audibert, pour &lt;strong&gt;l&#39;INSEE&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;Emmanuelle Bermès, pour &lt;strong&gt;la Bibliothèque nationale de France&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;Alain Chaumet, pour l&#39;&lt;strong&gt;Institut géographique national&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;Tangui Morlier, pour l&#39;association &lt;strong&gt;Regards Citoyens&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;ul class=&quot;simple&quot;&gt;
&lt;li&gt;[DataLift](&lt;a class=&quot;reference&quot; href=&quot;http://datalift.org/fr/&quot;&gt;http://datalift.org/fr/&lt;/a&gt;)&lt;/li&gt;
&lt;li&gt;[Regards Citoyens](&lt;a class=&quot;reference&quot; href=&quot;http://www.regardscitoyens.org/&quot;&gt;http://www.regardscitoyens.org/&lt;/a&gt;)&lt;/li&gt;
&lt;li&gt;[Institut géographique national](&lt;a class=&quot;reference&quot; href=&quot;http://www.ign.fr&quot;&gt;http://www.ign.fr&lt;/a&gt;)&lt;/li&gt;
&lt;li&gt;[Bibliothèque nationale de France](&lt;a class=&quot;reference&quot; href=&quot;http://www.bnf.fr/&quot;&gt;http://www.bnf.fr/&lt;/a&gt;)&lt;/li&gt;
&lt;li&gt;[INSEE](&lt;a class=&quot;reference&quot; href=&quot;http://www.insee.fr/&quot;&gt;http://www.insee.fr/&lt;/a&gt;)&lt;/li&gt;
&lt;/ul&gt;</description>
  <dc:date>2024-05-03T14:27+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/1176</guid>
  <title>Utilisation du Web sémantique pour les sites de la BBC</title>
  <link>https://cms.semweb.pro/talk/1176</link>
  <description>&lt;p&gt;Yves Raimond est ingénieur logiciel à la &lt;strong&gt;BBC - Audio &amp;amp; Music interactive&lt;/strong&gt;.&lt;/p&gt;
&lt;p&gt;Cf chapter in &lt;strong&gt;Linking Enterprise Data&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;[Linking Enterprise Data](&lt;a class=&quot;reference&quot; href=&quot;http://www.springer.com/computer/database+management+%26+information+retrieval/book/978-1-4419-7664-2&quot;&gt;http://www.springer.com/computer/database+management+%26+information+retrieval/book/978-1-4419-7664-2&lt;/a&gt;)&lt;/p&gt;</description>
  <dc:date>2024-05-03T14:28+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/1149</guid>
  <title>SemWebVid - Making Video A First Class Semantic Web Citizen</title>
  <link>https://cms.semweb.pro/talk/1149</link>
  <description>&lt;p&gt;Thomas Steiner est chercheur chez &lt;strong&gt;Google&lt;/strong&gt; où il effectue une thèse en collaboration avec l&#39;UPC.&lt;/p&gt;
&lt;p&gt;[Thomas Steiner](&lt;a class=&quot;reference&quot; href=&quot;http://research.google.com/pubs/author39477.html&quot;&gt;http://research.google.com/pubs/author39477.html&lt;/a&gt;)&lt;/p&gt;
&lt;p&gt;SemWebVid is an online Ajax application that allows for the automatic  generation of Resource Description Framework (RDF) video descriptions.  These descriptions are based on two pillars: first, on a combination of  user-generated metadata such as title, summary, and tags; and second, on  closed captions which can be user-generated, or be auto-generated via  speech recognition. The plaintext contents of both pillars are being  analyzed using multiple Natural Language Processing (NLP) Web services  in parallel whose results are then merged and where possible matched  back to concepts in the sense of Linking Open Data (LOD). The final  result is a deep-linkable RDF description of the video, and a  “scroll-along” view of the video as an example of video visualization  formats.&lt;/p&gt;
&lt;p&gt;See [&lt;a class=&quot;reference&quot; href=&quot;http://research.google.com/pubs/pub36825.html.%5D(http://research.google.com/pubs/pub36825.html&quot;&gt;http://research.google.com/pubs/pub36825.html.](http://research.google.com/pubs/pub36825.html&lt;/a&gt;.) The work will have advanced by the date of the conference, and I would present whatever might be the state of the art by then. Slides will be English, but I can give the talk in French (see my bio).&lt;/p&gt;</description>
  <dc:date>2024-05-03T14:29+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/1161</guid>
  <title>Moteurs de recherche et Web Sémantique</title>
  <link>https://cms.semweb.pro/talk/1161</link>
  <description>&lt;p&gt;Jérôme Mainka, responsable de la recherche chez &lt;strong&gt;Antidot&lt;/strong&gt;.&lt;/p&gt;
&lt;p&gt;Docteur en informatique de l&#39;Université Paris Dauphine, Jérôme Mainka est un spécialiste des technologies de traitement du langage et du Web sémantique. En tant qu&#39;expert technique et responsable de la cellule recherche, Jérôme Mainka participe aux préconisations techniques et d&#39;architecture et aux spécifications des algorithmes pour maximiser les performances de la solution de recherche et d&#39;accès à l&#39;information AFS éditée par Antidot.&lt;/p&gt;
&lt;p&gt;Le Web sémantique est-il un n-ième standard de représentation des données ou une nouvelle façon d’aborder la recherche d’information ?&lt;/p&gt;
&lt;p&gt;L&#39;utilisation du terme « Sémantique » a souvent été porteur de confusions donnant à penser que le Web sémantique visait la compréhension du langage naturel par les machines. Même si les objectifs réels du Web sémantique semblent en réalité éloignées des techniques du traitement automatique de la langue, les technologies du Web sémantique n&#39;en restent pas moins intéressantes pour les solutions d&#39;accès et de recherche d&#39;information. En effet, celles-ci sont déployée dans des contextes de plus en plus complexes mêlant données structurées et données non structurées  et, dans ce cadre, les technologies du Web sémantique permettent de résoudre de nombreux problèmes de par le cadre d&#39;interopérabilité et l&#39;écosystème de standards et d&#39;outils qu&#39;elles offrent.&lt;/p&gt;
&lt;p&gt;Impliqués depuis plusieurs années dans le domaine, nous montrerons comment les technologies du Web sémantique aide les équipes Antidot à mieux gérer, traiter et valoriser les données de leurs clients. Dans cette présentation, nous parcourrons une palette assez large de manipulations des objets sémantiques pratiquées couramment dans nos réalisations et basées sur les technologies du Web sémantique.&lt;/p&gt;
&lt;p&gt;Nous illustrerons notre exposé par des réalisations concrètes et nous montrerons en quoi  l’utilisation du Web sémantique nous a épargné des heures de développements spécifiques et nous a permis d’adresser des problématiques de plus en plus complexes.&lt;/p&gt;
&lt;p&gt;Nous aborderons notamment l’extension sémantique, la navigation par facette, la mise en relation de silos d’informations hétérogènes, l’alignement des données sur des référentiels, l’utilisation du Web des données et d’autres techniques originales que nous avons développées pour la nouvelle version d’AFS.&lt;/p&gt;</description>
  <dc:date>2010-11-22T13:53+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/1153</guid>
  <title>Un client graphique pour le Web Sémantique: Datao</title>
  <link>https://cms.semweb.pro/talk/1153</link>
  <description>&lt;p&gt;Olivier Rossel est l&#39;initiateur du projet Datao.&lt;/p&gt;
&lt;p&gt;Le World Wide Web doit son succès à une architecture serveur souple et robuste, ainsi qu&#39;à la disponibilité d&#39;un client universel et simple d&#39;utilisation: le navigateur Web.&lt;/p&gt;
&lt;p&gt;Le Web Sémantique est une technologies très innovante, qui s&#39;améliore sans cesse au fil du temps. Mais son image au sein des industries et du grand public reste obscure, car trop peu de clients graphiques simples d&#39;usage sont disponibles pour mieux comprendre son utilité.&lt;/p&gt;
&lt;p&gt;Datao est un client Web Sémantique très simple d&#39;utilisation, de type Question/Réponse. Entièrement graphique, il permet de naviguer dans des Web Sémantiques.&lt;/p&gt;
&lt;p&gt;Ses fonctionnalités de requêtage sémantique, de formatage graphique des résultats,  et de proposition contextuelle de navigation sont rendus évidents par le biais d&#39;interfaces utilisateur simples d&#39;emploi.&lt;/p&gt;
&lt;p&gt;Un module avancé, destiné aux experts métier, permet de créer des questions, de les annoter sémantiquement et de les interconnecter dans des Contextes Sémantiques de Navigation, tout cela entièrement graphiquement.&lt;/p&gt;
&lt;p&gt;Datao permet, en somme,  d&#39;appréhender les concepts fondamentaux du Web Sémantique d&#39;une manière didactique, et de maquetter de nouveaux usages potentiels pour vos données métier, interconnectées, pourquoi pas, avec les données sémantiques publiques, du LinkedOpenData par exemple.&lt;/p&gt;</description>
  <dc:date>2010-11-22T13:54+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/1221</guid>
  <title>Présentations éclair 17 janvier 2011</title>
  <link>https://cms.semweb.pro/talk/1221</link>
  <description>&lt;p&gt;Le jour même, tous les participants pourront s&#39;inscrire pour présenter le sujet de leur choix en moins de 6 min. Il y aura entre dix et douze présentations éclair en fin de journée. Premier arrivé, premier servi.&lt;/p&gt;</description>
  <dc:date>2010-11-14T18:18+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/1178</guid>
  <title>Le Web social avec WebId</title>
  <link>https://cms.semweb.pro/talk/1178</link>
  <description>&lt;p&gt;Les réseaux sociaux actuels sont des silos isolés les uns des autres qui ne laissent que peu de libertés à leurs utilisateurs.&lt;/p&gt;
&lt;p&gt;À l&#39;opposé du courrier électronique ou du téléphone, qui est sont des moyens de
communication ouverts, les réseaux sociaux actuels ne permettent pas d&#39;échanger
avec des utilisateurs qui appartiennent à d&#39;autres réseau que le sien. Comme si
un abonné d&#39;une compagnie de téléphone mobile ne pouvait pas appeler un abonné de la compagnie concurrente.&lt;/p&gt;
&lt;p&gt;Les débats récents provoqués par les changements des conditions de confidentialité décidés unilatéralement par les hébergeurs de réseaux sociaux montrent que les utilisateurs qui souhaitent faire respecter leur vie privée doivent reprendre le contrôle de leur profil.&lt;/p&gt;
&lt;p&gt;Une première avancée du Web social et sémantique est l&#39;interopérabilité des réseaux sociaux grâce à l&#39;utilisation de OWL et RDF. Une seconde concerne la vie privée, grâce à WebId, un mécanisme d&#39;identification décentralisé qui permettra à chacun de définir qui peut accéder aux informations de son profil plutôt que de laisser le réseau social dont il fait partie fixer sa politique dans ce domaine.&lt;/p&gt;</description>
  <dc:date>2011-01-12T09:32+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/1174</guid>
  <title>Web sémantique, un baptême technique</title>
  <link>https://cms.semweb.pro/talk/1174</link>
  <description>&lt;p&gt;Fabien Gandon &lt;strong&gt;INRIA&lt;/strong&gt;.&lt;/p&gt;
&lt;p&gt;Le web sémantique combine un jeu de langages permettant de publier  des données liées et la sémantique des schémas de ces données. De plus  en plus d’organisations privées et publiques participent à ce web de  données en publiant dans ces langages des données ouvertes et leurs  modèles de données.&lt;/p&gt;
&lt;p&gt;Cet atelier de 3 heures alternera introductions et sessions pratiques  sur machine pour se familiariser avec quatre langages du web sémantique  : RDF, SPARQL, RDFS et OWL. Il s’agit de faire à la fois une visite  guidée des recommandations du web sémantique et à chaque arrêt de  manipuler un peu ces standards sur machine pour se familiariser avec  leurs modèles, leurs syntaxes et leurs pièges.&lt;/p&gt;
&lt;p&gt;Cet atelier nécessite que chaque participant ait avec lui une machine  avec Java 1.6 et un bon éditeur de texte ou IDE. La pratique sera  réalisée sous l’atelier logiciel CORESE/KGRAM. L’intervention  s’adressera à un public d’ingénieurs logiciel, développeurs, praticiens  et techniciens du web, étudiants ou juste technophiles.&lt;/p&gt;</description>
  <dc:date>2010-11-22T13:57+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/1137</guid>
  <title>Atelier libre</title>
  <link>https://cms.semweb.pro/talk/1137</link>
  <description>&lt;p&gt;Venez avec vos idées et vos projets pour les partager avec les autres participants et travailler ensemble pendant la journée.&lt;/p&gt;
&lt;p&gt;Espace libre pour:&lt;/p&gt;
&lt;ul class=&quot;simple&quot;&gt;
&lt;li&gt;No Conference&lt;/li&gt;
&lt;li&gt;BarCamp&lt;/li&gt;
&lt;li&gt;Sprint&lt;/li&gt;
&lt;li&gt;VoCamp&lt;/li&gt;
&lt;li&gt;...&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Pour un minimum de coordination, contactez les organisateurs à contact at semweb dot pro !&lt;/p&gt;</description>
  <dc:date>2011-01-12T09:31+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/1184</guid>
  <title>RDFa, comment insuffler un peu d&#39;intelligence à une page Web ?</title>
  <link>https://cms.semweb.pro/talk/1184</link>
  <description>&lt;p&gt;Le but de ce tutoriel est de présenter de manière concrète RDFa, recommandation du W3C qui permet d&#39;exprimer des triplets RDF dans des pages Web HTML. A travers différents exemples, nous montrerons pas à pas les principes de cette syntaxe de RDF revenant au passage sur les fondements du modèle de triplet. Puis, nous aborderons différents exemples d&#39;exploitation des données en RDFa tant du point de vue du site Web en lui-même, qu&#39;au niveau du navigateur que des moteurs de recherche (Google rich snippet, Yahoo SearchMonkey, projet Isidore du CNRS). Dans la continuité, nous ouvrirons la discussion sur les perspectives ouvertes par RDFa dans le domaine de l&#39;optimisation du référencement, en particulier dans le Ecommerce.&lt;/p&gt;</description>
  <dc:date>2010-11-19T22:14+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/1180</guid>
  <title>Développement d&#39;applications web3 avec CubicWeb</title>
  <link>https://cms.semweb.pro/talk/1180</link>
  <description>&lt;p&gt;Sylvain Thénault, Responsable du développement de CubicWeb chez &lt;strong&gt;Logilab&lt;/strong&gt; depuis le lancement du projet il y a dix ans.&lt;/p&gt;
&lt;p&gt;CubicWeb_ est une plateforme conçue pour le web sémantique. Elle permet de développer et maintenir efficacement des applications web qui présentent une IHM en HTML et offrent un accès direct aux données sous-jacentes via SPARQL et RQL (le langage natif de CubicWeb).&lt;/p&gt;
&lt;p&gt;Ses principales caractéristiques sont:&lt;/p&gt;
&lt;ul class=&quot;simple&quot;&gt;
&lt;li&gt;un moteur qui exploite le modèle de données explicite de l&#39;application,&lt;/li&gt;
&lt;li&gt;un langage de requête interne nommé RQL similaire à W3C’s SPARQL (lequel est aussi disponible),&lt;/li&gt;
&lt;li&gt;un mécanisme de sélection+adaptation+vues  pour la génération automatique de HTML/XML/JSON/text/RDF,&lt;/li&gt;
&lt;li&gt;une librairie de composants ré-utilisables  (modèle de données et vues) qui répondent à des besoins communs,&lt;/li&gt;
&lt;li&gt;la force et la flexibilité du langage de programmation Python et le respect des principes de conception objet,&lt;/li&gt;
&lt;li&gt;la fiabilité des bases de données SQL, des annuaires LDAP, Subversion et  Mercurial pour de nombreux programmes de stockage.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Développée depuis 2000 avec un effort soutenu de R&amp;amp;D, supportant des centaines de milliers de visites quotidiennes sur certains sites en production, CubicWeb est aujourd&#39;hui développée par une communauté d&#39;entreprises en croissance.&lt;/p&gt;
&lt;p&gt;Ce tutoriel permettra aux développeurs de prendre en main la plateforme et d&#39;en comprendre l&#39;architecture et les principes de fonctionnement. À l&#39;issue du tutoriel, les participants devraient être en mesure de commencer à développer leurs propres applications.&lt;/p&gt;
&lt;p&gt;[CubicWeb](&lt;a class=&quot;reference&quot; href=&quot;http://www.cubicweb.org/&quot;&gt;http://www.cubicweb.org/&lt;/a&gt;)&lt;/p&gt;
&lt;div class=&quot;system-messages section&quot;&gt;
&lt;h3&gt;&lt;a&gt;Docutils System Messages&lt;/a&gt;&lt;/h3&gt;
&lt;div class=&quot;system-message&quot;&gt;&lt;b&gt;ReST / HTML errors:&lt;/b&gt;System Message: ERROR/3 (&amp;amp;lt;string&amp;amp;gt; , line 3); &amp;lt;em&amp;gt;backlink&amp;lt;/em&amp;gt;&amp;lt;/p&amp;gt;
&lt;/div&gt;Unknown target name: &quot;cubicweb&quot;.&lt;/div&gt;</description>
  <dc:date>2024-05-03T14:32+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/1186</guid>
  <title>SPARQL, comment illuminer vos mashups en consommant les données du Linked Data ?</title>
  <link>https://cms.semweb.pro/talk/1186</link>
  <description>&lt;p&gt;Alexandre Passant &lt;strong&gt;DERI&lt;/strong&gt;, Gautier Poupeau &lt;strong&gt;Antidot&lt;/strong&gt;.&lt;/p&gt;
&lt;p&gt;A partir de différents exemples de mashup réalisés avec les technologies du Web sémantique disponibles à l&#39;adresse &lt;a class=&quot;reference&quot; href=&quot;http://www.lespetitescases.net/semweblabs/&quot;&gt;http://www.lespetitescases.net/semweblabs/&lt;/a&gt;, nous montrerons en quoi le modèle RDF et le langage de requêtes SPARQL constituent des solutions souples et universelles pour construire des mashups. Nous aborderons aussi bien les aspects techniques (utilisation du framework ARC 2) que les points qui touchent plus spécifiquement les technologies du Web sémantique (récupération des données grâce à la négociation de contenu, requêtes SPARQL).&lt;/p&gt;</description>
  <dc:date>2010-11-22T13:57+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/1143</guid>
  <title>Publier des données liées sur le web</title>
  <link>https://cms.semweb.pro/talk/1143</link>
  <description>&lt;p&gt;Intervenants: François Scharffe &lt;strong&gt;LIRMM&lt;/strong&gt;, Gabriel Kepeklian &lt;strong&gt;Atos Origin Intégration&lt;/strong&gt;, Raphaël Troncy &lt;strong&gt;Eurécom&lt;/strong&gt;, Bernard Vatant &lt;strong&gt;Mondeca&lt;/strong&gt;.&lt;/p&gt;
&lt;p&gt;Ce tutoriel_ a pour but d&#39;apprendre aux participants à publier des données structurées sur le web de données. Nous commencerons par une vue d&#39;ensemble du web de données et du processus de publications. Nous détaillerons ensuite sur un exemple chaque étape de ce processus: préparation du jeu de données, sélection d&#39;un vocabulaire, conversion des données, publication suivant les principes du Linked Data, et finalement interconnexion avec d&#39;autres jeux de données. Pour chaque étape nous présenterons un ou plusieurs outils la facilitant.&lt;/p&gt;
&lt;p&gt;La deuxième partie de ce tutoriel sera consacrée à un tour d&#39;horizon des vocabulaires existants et de la bonne manière de les (ré)utiliser.&lt;/p&gt;
&lt;p&gt;Prérequis: notions sur le web sémantique, web de données, RDF, OWL, SPARQL, Apache&lt;/p&gt;
&lt;ul class=&quot;simple&quot;&gt;
&lt;li&gt;[tutoriel](&lt;a class=&quot;reference&quot; href=&quot;http://www.kepeklian.com/blog/2010/06/23/traduction-francaise-how-to-publish-linked-data-on-the-web/&quot;&gt;http://www.kepeklian.com/blog/2010/06/23/traduction-francaise-how-to-publish-linked-data-on-the-web/&lt;/a&gt;)&lt;/li&gt;
&lt;/ul&gt;
&lt;div class=&quot;system-messages section&quot;&gt;
&lt;h3&gt;&lt;a&gt;Docutils System Messages&lt;/a&gt;&lt;/h3&gt;
&lt;div class=&quot;system-message&quot;&gt;&lt;b&gt;ReST / HTML errors:&lt;/b&gt;System Message: ERROR/3 (&amp;amp;lt;string&amp;amp;gt; , line 3); &amp;lt;em&amp;gt;backlink&amp;lt;/em&amp;gt;&amp;lt;/p&amp;gt;
&lt;/div&gt;Unknown target name: &quot;tutoriel&quot;.&lt;/div&gt;</description>
  <dc:date>2024-05-03T14:32+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/1226</guid>
  <title>Présentations éclair 18 janvier 2011</title>
  <link>https://cms.semweb.pro/talk/1226</link>
  <description>&lt;p&gt;Le jour même, tous les participants pourront s&#39;inscrire pour présenter le sujet de leur choix en moins de 6 min. Il y aura entre dix et douze présentations éclair en fin de journée. Premier arrivé, premier servi.&lt;/p&gt;</description>
  <dc:date>2010-11-14T18:18+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/2670</guid>
  <title>Introduction au web sémantique</title>
  <link>https://cms.semweb.pro/talk/2670</link>
  <description>Introduction aux principes du web sémantique et résumé de la journée.</description>
  <dc:date>2012-04-02T09:07+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/2511</guid>
  <title>Linked Enterprise Data : les données au cœur de l’entreprise !</title>
  <link>https://cms.semweb.pro/talk/2511</link>
  <description>&lt;p&gt;Les systèmes d’information des entreprises ont été construits de façon incrémentale, et pensés en termes d’applications et de processus : chaque nouveau besoin opérationnel a déclenché la mise en œuvre d’une application ad hoc : ERP, CRM, GED, annuaire, messagerie, extranet… Les données sont maintenant hétérogènes et cloisonnées. La réactivité de l’entreprise exige un système d’information agile, donnant accès pour chacun aux informations utiles à sa mission. Les nouvelles applications demandées par les métiers doivent être construites avec les données existantes. BI, MDM, SOA, recherche fédérée sont des réponses  partielles : elles rendent des services opérationnels, mais leur mise en œuvre, longue et coûteuse, complexifie le système.&lt;/p&gt;
&lt;p&gt;Pour répondre aux enjeux d’un SI évolutif, nous devons changer de paradigme et mettre les données au cœur de la démarche : il faut penser l’accès à l’information dans un espace unifié, alimenté par toutes les sources de l’entreprise et à partir duquel sont créés de nouveaux services. Mais suivant quelle démarche et avec quelle technologie ? L’évolution d’Internet a amené le Web Sémantique, où les ordinateurs peuvent traiter et échanger de l’information de façon automatique et non ambigüe. Et le Linked Data, démarche de maillage des données, crée une base de connaissance décentralisée à l’échelle du Web.&lt;/p&gt;
&lt;p&gt;Le Linked Enterprise Data est l’application du Linked Data au SI de l’entreprise : au delà d’une simple juxtaposition des silos, il s’affranchit des cloisons et maille les données elles-mêmes au niveau le plus fin. Le LED crée un espace informationnel cohérent, dense et unifié qui se nourrit de l’ensemble des données et documents de l’entreprise. Evolutif et agile, le Linked Enterprise Data permet de créer les informations opérationnelles demandées par les métiers, sans modifier ni perturber le SI : une démarche Linked Enterprise Data peut commencer par un petit projet, qui va répondre rapidement à un besoin métier ciblé, avec un retour sur investissement démontrable. Le Linked Enterprise Data offre un hub informationnel où chaque application s’enrichit des données de tout le SI. Il tire parti d’un cadre technologique ouvert, standardisé, sécurisé et performant défini par le W3C - XML, RDF, SPARQL, OWL - pour réduire la complexité.&lt;/p&gt;
&lt;p&gt;Le Linked Enterprise Data redonne la maîtrise des données aux DSI et apporte une plus grande autonomie aux métiers et aux utilisateurs : il permet une consolidation de toutes les informations accessibles et ouvre le champ des possibles !&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Auteur&lt;/strong&gt; :
Fabrice Lacroix - fondateur et P-DG d&#39;Antidot. Diplômé de l’ENSIMAG et détenteur d’un Master en informatique de l’Imperial College de Londres.&lt;/p&gt;
&lt;p&gt;En 1994, il participe à la création du fournisseur d’accès Infonie dont il dirige la R&amp;amp;D ainsi que les départements télécoms et systèmes d’information. En 1999, il fonde Antidot avec Stéphane Loesel et Jérôme Mainka.&lt;/p&gt;</description>
  <dc:date>2024-05-03T13:36+00:00</dc:date>
  <dc:creator>Arthur Lutz</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/2474</guid>
  <title>Linked Data et description du produit automobile</title>
  <link>https://cms.semweb.pro/talk/2474</link>
  <description>&lt;p&gt;Des vocabulaires tels que [GoodRelations](&lt;a class=&quot;reference&quot; href=&quot;http://www.heppnetz.de/projects/goodrelations/)et&quot;&gt;http://www.heppnetz.de/projects/goodrelations/)et&lt;/a&gt;
[schema.org](&lt;a class=&quot;reference&quot; href=&quot;http://schema.org/&quot;&gt;http://schema.org/&lt;/a&gt;) permettent de décrire des produits sur le web de données et,
pour des articles tels que livres ou tickets de spectacle, les moteurs de recherche sont
capables de retourner des offres commerciales incluant vendeur, prix et évaluations.&lt;/p&gt;
&lt;p&gt;Mais supposez que vous vouliez acheter une voiture, une citadine par exemple, avec toit
ouvrant, climatisation, et connecteur MP3. Là, les choses se compliquent. Ces choix ne
définissent pas complètement un produit, et vous souhaitez probablement comparer les
offres sur de multiples critères : leur prix, mais aussi, par exemple, leurs systèmes
de navigation ou leurs émissions de CO2.&lt;/p&gt;
&lt;p&gt;Plusieurs constructeurs ont entrepris de décrire [leur gamme sur le web de données](&lt;a class=&quot;reference&quot; href=&quot;http://www.w3.org/2001/sw/sweo/public/UseCases/Volkswagen/&quot;&gt;http://www.w3.org/2001/sw/sweo/public/UseCases/Volkswagen/&lt;/a&gt;).
Cela pose d&#39;intéressantes questions. Vu le nombre de caractéristiques qu&#39;un client peut
choisir (type de caisse, motorisation, options, couleur, ...), et les multiples contraintes
qui existent entre elles, les gammes automobiles sont en effet non énumérables (plus de
10^20 voitures différentes chez Renault), et complexes. Elles sont donc spécifiées en intention,
sous la forme d&#39;une liste de variables, et de contraintes entre ces variables, c&#39;est à dire sous
la forme d&#39;un &quot;Constraint Satisfaction Problem&quot;.&lt;/p&gt;
&lt;p&gt;On peut les représenter en utilisant des langages du [Semantic Web](&lt;a class=&quot;reference&quot; href=&quot;http://ceur-ws.org/Vol-748/paper4.pdf&quot;&gt;http://ceur-ws.org/Vol-748/paper4.pdf&lt;/a&gt;).
Mais les utilisations pratiques nécessitent des outils puissants de raisonnement automatique. Publier
sur le web de données une gamme décrite ainsi n&#39;aurait donc qu&#39;un intérêt limité, parce que
la plupart des agents sur le web ne disposent pas de telles capacités de raisonnement.&lt;/p&gt;
&lt;p&gt;D&#39;un autre côté, un client peut explorer la gamme et y choisir un produit, de façon interactive,
grâce à un &quot;configurateur&quot;. Chaque étape du processus de configuration décrit un produit partiellement
défini (PPD), avec une liste des choix encore possibles, compte tenu des sélections précédentes.
Ces choix sont autant de liens vers d&#39;autres PPD (ou des produits complètement définis, in fine).
Le processus peut donc être vu comme le parcours d&#39;un graphe de PPDs : chaque PPD est identifié
par une URI, et la gamme se décrit ainsi sous forme de Linked Data. Comme chaque PPD peut être
complété en une offre commerciale valide, l&#39;[ontologie de configuration](&lt;a class=&quot;reference&quot; href=&quot;http://purl.org/configurationontology&quot;&gt;http://purl.org/configurationontology&lt;/a&gt;)
correspondante s&#39;intègre naturellement à [GoodRelations](&lt;a class=&quot;reference&quot; href=&quot;http://www.heppnetz.de/projects/goodrelations/&quot;&gt;http://www.heppnetz.de/projects/goodrelations/&lt;/a&gt;)&lt;/p&gt;
&lt;p&gt;[Renault](&lt;a class=&quot;reference&quot; href=&quot;http://www.renault.com/)a&quot;&gt;http://www.renault.com/)a&lt;/a&gt; commencé à publier ainsi la description de sa gamme
(par exemple, au [format JSON](&lt;a class=&quot;reference&quot; href=&quot;http://json.org/&quot;&gt;http://json.org/&lt;/a&gt;) en [Allemagne](&lt;a class=&quot;reference&quot; href=&quot;http://co.rplug.renault.de/docs&quot;&gt;http://co.rplug.renault.de/docs&lt;/a&gt;)
et en [Italie](&lt;a class=&quot;reference&quot; href=&quot;http://co.rplug.renault.it/docs&quot;&gt;http://co.rplug.renault.it/docs&lt;/a&gt;).
Cette présentation se propose d&#39;expliquer comment, et de décrire les cas d&#39;emploi :
partage de PPD entre applications, devices et media, publicité, comparaison de gammes orientée client, SEO.&lt;/p&gt;
&lt;p&gt;Lectures supplémentaires :&lt;/p&gt;
&lt;ul class=&quot;simple&quot;&gt;
&lt;li&gt;[Compte rendu #SemTechBiz Berlin – Day 2](&lt;a class=&quot;reference&quot; href=&quot;http://semanticweb.com/semtechbiz-berlin-day-2_b26545&quot;&gt;http://semanticweb.com/semtechbiz-berlin-day-2_b26545&lt;/a&gt;)&lt;/li&gt;
&lt;li&gt;[Description Keynote à SemTechBiz](&lt;a class=&quot;reference&quot; href=&quot;http://semtechbizberlin2012.semanticweb.com/sessionPop.cfm?confid=66&amp;amp;proposalid=4478&quot;&gt;http://semtechbizberlin2012.semanticweb.com/sessionPop.cfm?confid=66&amp;amp;proposalid=4478&lt;/a&gt;)&lt;/li&gt;
&lt;li&gt;[Vidéo &quot;Semantic SEO for the Automotive Industry](&lt;a class=&quot;reference&quot; href=&quot;http://vimeo.com/34870158&quot;&gt;http://vimeo.com/34870158&lt;/a&gt;)&lt;/li&gt;
&lt;li&gt;[Semantic Web Technologies in Automotive Reapair and Diagnostic](&lt;a class=&quot;reference&quot; href=&quot;http://www.w3.org/2001/sw/sweo/public/UseCases/Renault&quot;&gt;http://www.w3.org/2001/sw/sweo/public/UseCases/Renault&lt;/a&gt;)&lt;/li&gt;
&lt;li&gt;[Linking Enterprise Data (Linking Open Data workshop 2008)](&lt;a class=&quot;reference&quot; href=&quot;http://events.linkeddata.org/ldow2008/papers/21-servant-linking-enterprise-data.pdf&quot;&gt;http://events.linkeddata.org/ldow2008/papers/21-servant-linking-enterprise-data.pdf&lt;/a&gt;)&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;Auteurs&lt;/strong&gt; :&lt;/p&gt;
&lt;p&gt;François-Paul Servant et Edouard Chevalier&lt;/p&gt;
&lt;p&gt;François-Paul Servant a introduit le Semantic Web chez Renault. Il a illustré les bénéfices possibles dans le contexte de l&#39;entreprise au travers de divers prototypes, dont certains furent présentés à l&#39;extérieur (&quot;Semantic Web Technologies in Automotive Repair and Diagnostic Documentation&quot; OWLED 2007, &quot;Linking Enterprise Data&quot;, LDOW 2008). Il a conçu et réalisé la première application, basée sur les Linked Data, opérationnelle chez Renault (avril 2010). Il s&#39;est intéressé au Semantic Web d&#39;assez bonne heure, en travaillant à un projet personnel, &quot;Semanlink&quot;, un système de tagging basé sur RDF qui permet d&#39;organiser les tags en un graphe de concepts liés.&lt;/p&gt;
&lt;p&gt;Edouard Chevalier a développé l&#39;API Renault de configuration, fondée sur les Linked Data, et le service de publication des données de description de la gamme.&lt;/p&gt;
&lt;p&gt;Tous deux travaillent pour Renault au sein de l&#39;équipe &quot;Intelligence Artificielle Appliquée&quot;, qui développe des outils de raisonnement, basés sur la compilation de contraintes booléennes et probabilistes.&lt;/p&gt;</description>
  <dc:date>2024-05-03T13:42+00:00</dc:date>
  <dc:creator>François-Paul Servant</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/2512</guid>
  <title>Mieux exposer des données hétérogènes grâce aux outils du Web sémantique :  l’exemple de data.bnf.fr</title>
  <link>https://cms.semweb.pro/talk/2512</link>
  <description>&lt;p&gt;La [Bibliothèque nationale de France](&lt;a class=&quot;reference&quot; href=&quot;http://www.bnf.fr)_&quot;&gt;http://www.bnf.fr)_&lt;/a&gt; conserve des millions d’ouvrages. Il s’agit de livres, mais aussi de manuscrits et de documents divers. Ces ressources sont ouvertes au Web par la numérisation, conduite depuis des années.&lt;/p&gt;
&lt;p&gt;Pourtant, elles sont souvent dissimulées dans le &quot;web profond&quot;,  c’est-à-dire dans le fond des catalogues, ou disséminées sous diverses adresses Internet.
Une nouvelle interface de navigation sur le Web a été mise au point par la BnF, pour permettre une diffusion à tous publics, avec des  pages HTML faciles à utiliser, mais aussi une exposition des données, [ouvertes techniquement (RDF)](&lt;a class=&quot;reference&quot; href=&quot;http://data.bnf.fr/semanticweb&quot;&gt;http://data.bnf.fr/semanticweb&lt;/a&gt;) et [juridiquement (Licence Ouverte)](&lt;a class=&quot;reference&quot; href=&quot;http://data.bnf.fr/licence&quot;&gt;http://data.bnf.fr/licence&lt;/a&gt;).&lt;/p&gt;
&lt;p&gt;[Data.bnf.fr](&lt;a class=&quot;reference&quot; href=&quot;http://data.bnf.fr&quot;&gt;http://data.bnf.fr&lt;/a&gt;) permet de réunir sur une même page toutes les informations relatives à un auteur ou à une œuvre. L’internaute accède ainsi à tous les documents des différents catalogues de la Bibliothèque sur le sujet, à des liens avec les archives et manuscrits, et aux ressources de [Gallica](&lt;a class=&quot;reference&quot; href=&quot;http://gallica.bnf.fr/&quot;&gt;http://gallica.bnf.fr/&lt;/a&gt;). Ce site construit automatiquement comporte plusieurs dizaines de milliers de pages, et sera progressivement élargi.&lt;/p&gt;
&lt;p&gt;L’intervention présentera les logiques des catalogues classiques et des fonds d’archives, pour expliquer pourquoi la notion d’identifiants et de vocabulaires est essentielle, en particulier dans le contexte de la numérisation. Sans entrer dans les précisions techniques, il s’agira de montrer comment une publication HTML depuis une entrée de formats hétérogènes utilise les outils du Web sémantique pour rendre un service concret et ouvert.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Auteur&lt;/strong&gt; :
Conservateur des bibliothèques, archiviste-paléographe, Romain Wenz a rejoint en 2009 le département de l&#39;Information Bibliographique et Numérique de la BnF comme expert métadonnées. Il travaille à l&#39;élaboration de l&#39;outil &quot;data.bnf.fr&quot; qui vise notamment à fournir des pages synthétiques sur les auteurs et les œuvres.&lt;/p&gt;</description>
  <dc:date>2024-05-03T13:45+00:00</dc:date>
  <dc:creator>Arthur Lutz</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/2546</guid>
  <title>Le Centre Pompidou Virtuel</title>
  <link>https://cms.semweb.pro/talk/2546</link>
  <description>&lt;p&gt;Dans le cadre de sa stratégie numérique développée depuis 2007, le
Centre Pompidou a créé une nouvelle plateforme de diffusion de
contenus numériques culturels sur Internet : le Centre Pompidou
Virtuel. Ce nouveau site renouvelle la stratégie de présence d&#39;une
grande institution culturelle sur le Web en partant d&#39;une approche
orientée vers les contenus.&lt;/p&gt;
&lt;p&gt;L&#39;alimentation en ressources numériques repose sur la mise à
disposition de l&#39;ensemble des contenus produits à destination du
public. Ces ressources renvoient au patrimoine du Centre (sa
collection, son bâtiment), à sa programmation (notamment celle des
conférences), et à sa production (notamment éditoriale et multimédia).
Ils incluent aussi les bases de données de ses établissements
associés, la [Bpi](&lt;a class=&quot;reference&quot; href=&quot;http://www.bpi.fr&quot;&gt;http://www.bpi.fr&lt;/a&gt;) et l&#39;[Ircam](&lt;a class=&quot;reference&quot; href=&quot;http://www.ircam.fr/&quot;&gt;http://www.ircam.fr/&lt;/a&gt;).&lt;/p&gt;
&lt;p&gt;La mise en place du Centre Pompidou Virtuel a imposé un changement de
paradigme, d&#39;une numérisation de conservation vers une numérisation de
diffusion. Le projet impliquait de réorganiser l&#39;ensemble des
processus de production, d&#39;organisation, et de diffusion des contenus
numériques afin de construire un centre de ressources de référence
dans le domaine de la création moderne et contemporaine, et plus
largement, du mouvement des idées contemporaines. Chaque contenu doit
être identifié, indexé, traduit, rendu libre de droits, interopérable,
et archivé de manière pérenne.&lt;/p&gt;
&lt;p&gt;Pour cela, le Centre Pompidou virtuel innove en adoptant un modèle de
données basé sur le Web sémantique. Les ressources ne sont pas
organisées suivant une hiérarchie rigide, mais permettent à
l&#39;internaute de naviguer par le sens. Les contenus sont ainsi
naturellement décloisonnés et traités de manière homogène, afin de
permettre leur organisation en fonction des besoins de chaque
utilisateur, et non en fonction d&#39;une logique dictée par des usages ou
des structures définis a priori.&lt;/p&gt;
&lt;p&gt;Dans le système mis en place, les données sont d’abord traitées pour
être converties dans un modèle ontologique commun, conçu spécialement
pour le projet. Elles sont ensuite exploitées à l’aide d’une
architecture basée sur différents composants open source, notamment le
moteur [SolR](&lt;a class=&quot;reference&quot; href=&quot;https://lucene.apache.org/solr/&quot;&gt;https://lucene.apache.org/solr/&lt;/a&gt;).&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;L’auteur&lt;/strong&gt; :&lt;/p&gt;
&lt;p&gt;Emmanuelle Bermès, conservateur des bibliothèques
actuellement chef du service multimédia au Centre Pompidou, a exercé
pendant 8 ans à la [BnF](&lt;a class=&quot;reference&quot; href=&quot;http://www.bnf.fr&quot;&gt;http://www.bnf.fr&lt;/a&gt;) des responsabilités liées à la bibliothèque
numérique et aux catalogues. Son implication dans le domaine du Web
sémantique appliqué aux bibliothèques est reconnue au niveau
international : elle a notamment co-présidé le groupe &quot;Library Linked
Data&quot; au sein du [W3C](&lt;a class=&quot;reference&quot; href=&quot;http://www.w3.org/2005/Incubator/lld/&quot;&gt;http://www.w3.org/2005/Incubator/lld/&lt;/a&gt;), et anime un groupe [« Semantic Web »](&lt;a class=&quot;reference&quot; href=&quot;http://www.ifla.org/en/about-swsig&quot;&gt;http://www.ifla.org/en/about-swsig&lt;/a&gt;) au sein de
[l’IFLA](&lt;a class=&quot;reference&quot; href=&quot;http://www.ifla.org/&quot;&gt;http://www.ifla.org/&lt;/a&gt;), l’organisation internationale des bibliothèques.&lt;/p&gt;</description>
  <dc:date>2024-05-03T13:47+00:00</dc:date>
  <dc:creator>Arthur Lutz</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/2660</guid>
  <title>Table ronde: L&#39;open data peut-il se passer du web sémantique ?</title>
  <link>https://cms.semweb.pro/talk/2660</link>
  <description>&lt;p&gt;Tim Berners Lee [1] a établi une notation qualitative sur 5 étoiles pour
la mise en ligne des données [2] :&lt;/p&gt;
&lt;p&gt;★ Données accessibles sur le web (sans conditions de formats)&lt;/p&gt;
&lt;p&gt;★★ Données accessibles structurées (exemple: Excel au lieu de l’image
d’un tableau)&lt;/p&gt;
&lt;p&gt;★★★ Formats non-propriétaires (exemple: csv au lieu d’Excel)&lt;/p&gt;
&lt;p&gt;★★★★ Usage d’URL pour identifier les données&lt;/p&gt;
&lt;p&gt;★★★★★ Données liées sémantiquement&lt;/p&gt;
&lt;p&gt;Les outils développés pour le web sémantique ont pour objet de faciliter
le partage, la réutilisation et le passage à l&#39;échelle.&lt;/p&gt;
&lt;p&gt;Est-ce que la qualité des données en terme de formalisation par les
technologies du web sémantique permettent de meilleurs réutilisations ?
de meilleurs traitements bigdata ? de meilleurs co-productions ?&lt;/p&gt;
&lt;p&gt;La conversion au web sémantique serait-il un passage obligé ? Un coût
caché à posteriori ? un luxe que certains pourront s&#39;offrir ? Une
condition pour la pérennité des ces silos de data ? Un facteurs
d&#39;attractivité pour les données ?&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Participants à la table ronde&lt;/strong&gt; :&lt;/p&gt;
&lt;ul class=&quot;simple&quot;&gt;
&lt;li&gt;Tangui Morlier de [Regards Citoyens](&lt;a class=&quot;reference&quot; href=&quot;http://regardscitoyens.org/&quot;&gt;http://regardscitoyens.org/&lt;/a&gt;) [@teymour](&lt;a class=&quot;reference&quot; href=&quot;http://twitter.com/teymour&quot;&gt;http://twitter.com/teymour&lt;/a&gt;)&lt;/li&gt;
&lt;li&gt;François Bancilhon de [Data Publica](&lt;a class=&quot;reference&quot; href=&quot;http://www.data-publica.com/&quot;&gt;http://www.data-publica.com/&lt;/a&gt;) [@fbancilhon](&lt;a class=&quot;reference&quot; href=&quot;http://twitter.com/fbancilhon&quot;&gt;http://twitter.com/fbancilhon&lt;/a&gt;)&lt;/li&gt;
&lt;li&gt;Francois Scharffe de [DataLift](&lt;a class=&quot;reference&quot; href=&quot;http://datalift.org/&quot;&gt;http://datalift.org/&lt;/a&gt;) [@lechatpito](&lt;a class=&quot;reference&quot; href=&quot;http://twitter.com/lechatpito&quot;&gt;http://twitter.com/lechatpito&lt;/a&gt;)&lt;/li&gt;
&lt;li&gt;Charles Nepote de [Fing](&lt;a class=&quot;reference&quot; href=&quot;http://fing.org&quot;&gt;http://fing.org&lt;/a&gt;) [@CharlesNepote](&lt;a class=&quot;reference&quot; href=&quot;http://twitter.com/CharlesNepote&quot;&gt;http://twitter.com/CharlesNepote&lt;/a&gt;) &lt;em&gt;à confirmer&lt;/em&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;[1] [Source](&lt;a class=&quot;reference&quot; href=&quot;http://inkdroid.org/journal/2010/06/04/the-5-stars-of-open-linked-data/&quot;&gt;http://inkdroid.org/journal/2010/06/04/the-5-stars-of-open-linked-data/&lt;/a&gt;)&lt;/p&gt;
&lt;p&gt;[2] [Traduction par LiberTIC](&lt;a class=&quot;reference&quot; href=&quot;https://libertic.wordpress.com/2011/09/02/lespagne-2eme-acteur-europeen-de-lopen-data/&quot;&gt;https://libertic.wordpress.com/2011/09/02/lespagne-2eme-acteur-europeen-de-lopen-data/&lt;/a&gt;)&lt;/p&gt;</description>
  <dc:date>2024-05-03T13:52+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/2586</guid>
  <title>Interactive exploration of complex relational data sets in a web</title>
  <link>https://cms.semweb.pro/talk/2586</link>
  <description>&lt;p&gt;With the increase of large inter-linked open data sets made available on the
web, there is a growing interest in tools that allow to quickly and easily
store, transform, query, mine and visualize that data.&lt;/p&gt;
&lt;p&gt;In this talk, we focus on our use of the [Protovis](&lt;a class=&quot;reference&quot; href=&quot;http://mbostock.github.com/protovis/),%5BD3%5D(http://mbostock.github.com/d3/&quot;&gt;http://mbostock.github.com/protovis/),[D3](http://mbostock.github.com/d3/&lt;/a&gt;)
Javascript library to interactively visualize the content of a relational database.
The underlying framework, &lt;a class=&quot;reference&quot; href=&quot;http://www.cubicweb.org/&quot;&gt;CubicWeb&lt;/a&gt;, is written in Python and relies on the [numpy](&lt;a class=&quot;reference&quot; href=&quot;http://numpy.scipy.org/&quot;&gt;http://numpy.scipy.org/&lt;/a&gt;)
and [scipy](&lt;a class=&quot;reference&quot; href=&quot;http://www.scipy.org/&quot;&gt;http://www.scipy.org/&lt;/a&gt;) libraries for the intensive numerical computations.&lt;/p&gt;
&lt;p&gt;[CubicWeb](&lt;a class=&quot;reference&quot; href=&quot;http://www.cubicweb.org/&quot;&gt;http://www.cubicweb.org/&lt;/a&gt;) is a semantic web framework written in Python that has been succesfully
used in large-scale projects, such as [Data.bnf](&lt;a class=&quot;reference&quot; href=&quot;https://data.bnf.fr&quot;&gt;https://data.bnf.fr&lt;/a&gt;) (French National Library’s opendata) or
Collections des musées de Haute-Normandie (museums of Haute-Normandie).
Using a browser connected to the server via HTTP, the user can enter queries in a high-level
query language, similar to SPARQL but called [RQL](&lt;a class=&quot;reference&quot; href=&quot;http://docs.cubicweb.org/annexes/rql/language.html#rql&quot;&gt;http://docs.cubicweb.org/annexes/rql/language.html#rql&lt;/a&gt;), that operates over a relational
database [PostgreSQL](&lt;a class=&quot;reference&quot; href=&quot;http://www.postgresql.org/&quot;&gt;http://www.postgresql.org/&lt;/a&gt;) in our case.&lt;/p&gt;
&lt;p&gt;Data will be loaded from [Geonames](&lt;a class=&quot;reference&quot; href=&quot;http://geonames.org&quot;&gt;http://geonames.org&lt;/a&gt;), [DBpedia](&lt;a class=&quot;reference&quot; href=&quot;http://dbpedia.org/&quot;&gt;http://dbpedia.org/&lt;/a&gt;), various RSS feeds and [&lt;a class=&quot;reference&quot; href=&quot;http://data.bnf.fr%5D(http://data.bnf.fr&quot;&gt;http://data.bnf.fr](http://data.bnf.fr&lt;/a&gt;).&lt;/p&gt;
&lt;p&gt;Using [Protovis](&lt;a class=&quot;reference&quot; href=&quot;http://mbostock.github.com/protovis/&quot;&gt;http://mbostock.github.com/protovis/&lt;/a&gt;), views will include maps, charts, hierarchies, networks, statistics, etc.
A important feature is that any tuple (query, processor, view) has a corresponding url,
making all results addressable, linkable and shareable.&lt;/p&gt;
&lt;p&gt;More technical details can be found in this blog post : &quot;Data Fast-food&quot;: quick interactive exploratory processing and visualization of complex datasets with [CubicWeb](&lt;a class=&quot;reference&quot; href=&quot;http://www.cubicweb.org/blogentry/2154794&quot;&gt;http://www.cubicweb.org/blogentry/2154794&lt;/a&gt;).&lt;/p&gt;</description>
  <dc:date>2024-05-03T14:00+00:00</dc:date>
  <dc:creator>Arthur Lutz</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/2479</guid>
  <title>Automated Linking Data with Apache Stanbol</title>
  <link>https://cms.semweb.pro/talk/2479</link>
  <description>&lt;p&gt;This talk will introduce the Stanbol_ project and showcase how it can be integrated in traditional Enterprise Content Management solutions.&lt;/p&gt;
&lt;ul class=&quot;simple&quot;&gt;
&lt;li&gt;[Stanbol](&lt;a class=&quot;reference&quot; href=&quot;http://incubator.apache.org/stanbol&quot;&gt;http://incubator.apache.org/stanbol&lt;/a&gt;)&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Stanbol is an Open Source project under incubation at the Apache Software Foundation. Its goal is to provide Web and CMS developers with a set of HTTP / RESTful services to help them integrate semantic technologies into their products and web sites.&lt;/p&gt;
&lt;p&gt;The following Stanbol services are currently under active developments:&lt;/p&gt;
&lt;ul class=&quot;simple&quot;&gt;
&lt;li&gt;Enhancement engines: use Natural Language Processing tools such as [Apache OpenNLP](&lt;a class=&quot;reference&quot; href=&quot;https://opennlp.apache.org/index.html&quot;&gt;https://opennlp.apache.org/index.html&lt;/a&gt;) to extract knowledge (topics, named entities, facts) from unstructured content and link it to unambiguous URIs from reference knowledge bases;&lt;/li&gt;
&lt;li&gt;Entity Hub: a Linked Data indexing cache built on top of [Apache Solr](&lt;a class=&quot;reference&quot; href=&quot;https://lucene.apache.org/solr/&quot;&gt;https://lucene.apache.org/solr/&lt;/a&gt;), [Clerezza](&lt;a class=&quot;reference&quot; href=&quot;https://incubator.apache.org/clerezza&quot;&gt;https://incubator.apache.org/clerezza&lt;/a&gt;) and [Jena](&lt;a class=&quot;reference&quot; href=&quot;https://incubator.apache.org/jena/&quot;&gt;https://incubator.apache.org/jena/&lt;/a&gt;) that comes with precomputed indexes and live connectors to popular knowledge bases such as [DBpedia](&lt;a class=&quot;reference&quot; href=&quot;http://dbpedia.org&quot;&gt;http://dbpedia.org&lt;/a&gt;), [Geonames ](&lt;a class=&quot;reference&quot; href=&quot;http://www.geonames.org/&quot;&gt;http://www.geonames.org/&lt;/a&gt;), [YAGO](&lt;a class=&quot;reference&quot; href=&quot;https://en.wikipedia.org/wiki/YAGO_%28ontology%29&quot;&gt;https://en.wikipedia.org/wiki/YAGO_%28ontology%29&lt;/a&gt;)...&lt;/li&gt;
&lt;li&gt;Content Hub: a faceted search engine based on Solr to search for content using the knowledge automatically extracted by the enhancement engines;&lt;/li&gt;
&lt;li&gt;CMS bridges to lift the structured content of document repositories using the JCR and [CMIS](&lt;a class=&quot;reference&quot; href=&quot;https://en.wikipedia.org/wiki&quot;&gt;https://en.wikipedia.org/wiki&lt;/a&gt;)&lt;/li&gt;
&lt;/ul&gt;
&lt;div class=&quot;system-message&quot;&gt;&lt;b&gt;ReST / HTML errors:&lt;/b&gt;System Message: WARNING/2 (&amp;amp;lt;string&amp;amp;gt; , line 16)&amp;lt;/p&amp;gt;
&lt;/div&gt;Bullet list ends without a blank line; unexpected unindent.&lt;p&gt;Content_Management_Interoperability_Services access protocols (using [Apache Chemistry](&lt;a class=&quot;reference&quot; href=&quot;https://chemistry.apache.org&quot;&gt;https://chemistry.apache.org&lt;/a&gt;)) and store the result into a triple store suitable for [SPARQL](&lt;a class=&quot;reference&quot; href=&quot;https://en.wikipedia.org/wiki/SPARQL&quot;&gt;https://en.wikipedia.org/wiki/SPARQL&lt;/a&gt;) access;&lt;/p&gt;
&lt;ul class=&quot;simple&quot;&gt;
&lt;li&gt;Rules engine based on [Apache Jena](&lt;a class=&quot;reference&quot; href=&quot;https://incubator.apache.org/jena/&quot;&gt;https://incubator.apache.org/jena/&lt;/a&gt;) for knowledge refactoring (e.g. convert extracted knowledge into the rich snippet vocabulary for SEO), integrity checks, merging rules, deductive inference...&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Automatically extracting and post-processing structured knowledge from semi-structured content it a key step towards better interoperability of the user intents and building smarter applications. [Apache Stanbol](&lt;a class=&quot;reference&quot; href=&quot;http://incubator.apache.org/stanbol&quot;&gt;http://incubator.apache.org/stanbol&lt;/a&gt;) aims to make it as easy as possible to achieve that goal.&lt;/p&gt;
&lt;div class=&quot;system-messages section&quot;&gt;
&lt;h3&gt;&lt;a&gt;Docutils System Messages&lt;/a&gt;&lt;/h3&gt;
&lt;div class=&quot;system-message&quot;&gt;&lt;b&gt;ReST / HTML errors:&lt;/b&gt;System Message: ERROR/3 (&amp;amp;lt;string&amp;amp;gt; , line 1); &amp;lt;em&amp;gt;backlink&amp;lt;/em&amp;gt;&amp;lt;/p&amp;gt;
&lt;/div&gt;Unknown target name: &quot;stanbol&quot;.&lt;/div&gt;</description>
  <dc:date>2024-05-03T14:05+00:00</dc:date>
  <dc:creator>Olivier Grisel</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/2554</guid>
  <title>SemUNIT : Web Sémantique et données liées pour les Universités Numériques Thématiques</title>
  <link>https://cms.semweb.pro/talk/2554</link>
  <description>&lt;p&gt;En 2003, le gouvernement français a créé les UNT (Universités Numériques Thématiques) en vue de favoriser la mutualisation des ressources pédagogiques. Parmi les 7 UNT crées, l’Université numérique ingénierie et technologie (UNIT) couvre les domaines des sciences de l’ingénieur, de la technologie et des sciences appliquées. UNIT propose un accès gratuit à de nombreuses ressources pédagogiques de qualité. Celles-ci sont décrites par des métadonnées encodées en XML, respectant le schéma SupLOMFR (un profil d’application du LOM dédié à l’enseignement supérieur français) et publiées grâce à un réseau de portails OAI-PMH.&lt;/p&gt;
&lt;p&gt;Les objectifs du projet SemUNIT étaient d&#39;accroître la visibilité des métadonnées (et par conséquence des ressources elles-mêms) sur le Web, et d’améliorer les services (particulièrement les services de recherche) proposés par UNIT.  Pour cela, il a été décidé d’utiliser les technologies du web sémantique et des linked data.&lt;/p&gt;
&lt;p&gt;Les différentes étapes du projet ont été :&lt;/p&gt;
&lt;ul class=&quot;simple&quot;&gt;
&lt;li&gt;la création d’une ontologie en OWL capturant le sens des métadonnées utilisées, en utilisant FOAF et le Dublin Core quand c’était possible ; l’implémentation des vocabulaires contrôlés en SKOS ;&lt;/li&gt;
&lt;li&gt;la création d’outils automatiques (basés sur XSLT) de transformation des métadonnées codées en XML en triplets RDF et entre autres, la transformation des vcards en triplets FOAF ;&lt;/li&gt;
&lt;li&gt;le choix d’une architecture (en l’occurrence OWLIM) permettant le stockage des triplets RDF, offrant un point d’entrée SPARQL et une interface vers les données liées (pubby)&lt;/li&gt;
&lt;li&gt;l’implémentation de services  consommant les triplets RDF :&lt;ul&gt;
&lt;li&gt;&lt;dl class=&quot;first docutils&quot;&gt;
&lt;dt&gt;recherche de ressources pédagogiques &lt;span class=&quot;classifier-delimiter&quot;&gt;:&lt;/span&gt; &lt;span class=&quot;classifier&quot;&gt;cette recherche à facettes » permet à l’utilisateur de raffiner sa requête en sélectionnant soit des valeurs possibles dans des&lt;/span&gt;&lt;/dt&gt;
&lt;dd&gt;vocabulaires contrôlés soit de naviguer de façon hiérarchique ans les mots-clés basés sur la DEWEY ;&lt;/dd&gt;
&lt;/dl&gt;
&lt;/li&gt;
&lt;li&gt;recherche d’experts. : cette recherche permet de trouver des experts spécialistes d’un domaine&lt;/li&gt;
&lt;li&gt;point d’entrée SPARQL : permettant à l’utilisateur de rentrer directement sa requête. Ceci a aussi servi à faire des vérifications sur la façon dont les métadonnées étaient renseignées.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;La description de 6500 ressources pédagogiques a donné lieu à un peu moins d’un million de triplets RDF.&lt;/p&gt;
&lt;p&gt;L’application est visible à l’URL suivante : [SEMUNT SUPELEC](&lt;a class=&quot;reference&quot; href=&quot;http://semunt.supelec.fr/portal/&quot;&gt;http://semunt.supelec.fr/portal/&lt;/a&gt;) et a vocation à être largement répandue à l’ensemble des autres UNT.&lt;/p&gt;
&lt;p&gt;Auteurs  :&lt;/p&gt;
&lt;p&gt;Yoann Isaac (Ingénieur Supélec, actuellement doctorant),
Yolaine Bourda (Professeur à Supélec),
Monique Grandbastien (Professeur d&#39;Informatique émérite, université Henri Poincaré Nancy1)&lt;/p&gt;</description>
  <dc:date>2024-05-03T14:07+00:00</dc:date>
  <dc:creator>Arthur Lutz</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/2552</guid>
  <title>Semanticpedia : le DBpedia francophone</title>
  <link>https://cms.semweb.pro/talk/2552</link>
  <description>&lt;p&gt;The project [semanticpedia.org](&lt;a class=&quot;reference&quot; href=&quot;http://semanticpedia.org/&quot;&gt;http://semanticpedia.org/&lt;/a&gt;) aims at extracting data from French Wikipedia with the help of DBpedia.org extraction framework. It is supported by the [INRIA](&lt;a class=&quot;reference&quot; href=&quot;http://en.wikipedia.org/wiki/National_Institute_for_Research_in_Computer_Science_and_Control&quot;&gt;http://en.wikipedia.org/wiki/National_Institute_for_Research_in_Computer_Science_and_Control&lt;/a&gt;), the French Ministry of Culture and Wikimedia France.&lt;/p&gt;
&lt;p&gt;Following DBpedia approach for English pages, data is extracted from several elements of Wikipedia pages (title, links, infoboxes, ...).&lt;/p&gt;
&lt;p&gt;The extracted data is recorded in the W3C standard [RDF](&lt;a class=&quot;reference&quot; href=&quot;http://www.w3.org/RDF&quot;&gt;http://www.w3.org/RDF&lt;/a&gt;) for resource description. It is composed of triples of the form &quot;subject predicate object&quot;. This enables to express relations between subjects of Wikipedia pages, for instance that &quot;France hasCapital Paris&quot;, or to express values for its attributes, for instance &quot;France hasPopulation 60 millions&quot;. This data can be queried with the language [SPARQL](&lt;a class=&quot;reference&quot; href=&quot;http://www.w3.org/TR/rdf-sparql-query&quot;&gt;http://www.w3.org/TR/rdf-sparql-query&lt;/a&gt;).&lt;/p&gt;
&lt;p&gt;For instance, to get the list of `the cities in France that have more than 100000 inhabitants
[Requette Depedia](&lt;a class=&quot;reference&quot; href=&quot;http://fr.dbpedia.org/sparql?default-graph-uri=http%3A%2F%2Ffr.dbpedia.org&amp;amp;query=prefix+db-owl%3A+%3Chttp%3A%2F%2Fdbpedia&quot;&gt;http://fr.dbpedia.org/sparql?default-graph-uri=http%3A%2F%2Ffr.dbpedia.org&amp;amp;query=prefix+db-owl%3A+%3Chttp%3A%2F%2Fdbpedia&lt;/a&gt;.org%2Fontology%2F%3E%0D%0A+select+*+where+{%0D%0A+++%3Fcity+%3Chttp%3A%2F%2Ffr.dbpedia.org%2Fproperty%2FwikiPageUsesTemplate%3E+%3Chttp%3A%2F%2Ffr.dbpedia.org%2Fresource%2FMod%25C3%25A8le%3AInfobox_Communes_de_France%3E+.%0D%0A+++%3Fcity+rdf%3Atype+db-owl%3ASettlement+.%0D%0A+++%3Fcity+db-owl%3ApopulationTotal+%3Fpopulation+.%0D%0A+++FILTER+%28%3Fpopulation+%3E+100000%29%0D%0A+}&amp;amp;format=text%2Fhtml&amp;amp;timeout=0&amp;amp;debug=on).&lt;/p&gt;
&lt;div class=&quot;system-message&quot;&gt;&lt;b&gt;ReST / HTML errors:&lt;/b&gt;System Message: WARNING/2 (&amp;amp;lt;string&amp;amp;gt; , line 7); &amp;lt;em&amp;gt;backlink&amp;lt;/em&amp;gt;&amp;lt;/p&amp;gt;
&lt;/div&gt;Inline interpreted text or phrase reference start-string without end-string.&lt;p&gt;Semanticpedia has some differences compared to DBpedia.org:&lt;/p&gt;
&lt;ul class=&quot;simple&quot;&gt;
&lt;li&gt;Data is extracted directly from French speaking pages. As DBpedia.org runs the extraction from English Wikipedia pages, it misses any page in French that is not linked by an interwikilink. About 15-20% of pages in French are not properly related to English pages, for instance &quot;Yvette Horner&quot;, &quot;Les Frères Jacques&quot;. Semanticpedia will extract data from these pages whereas DBpedia won&#39;t.&lt;/li&gt;
&lt;li&gt;Extractors are adapted to the habits in French Wikipedia. This allows a better extraction quality.&lt;/li&gt;
&lt;li&gt;Collaboration with Wikimedia community with several benefits&lt;ul&gt;
&lt;li&gt;a better understanding of the processes in Wikipedia&lt;/li&gt;
&lt;li&gt;feedback to the contributors in order to suggest improvement in the edition of pages&lt;/li&gt;
&lt;li&gt;developing tools that are more adapted to the needs of contributors and users.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;This project stays very close to DBpedia.org, it is member of the internationalization committee. The generated data are both published under the URIs &quot;[fr.dbpedia.org](&lt;a class=&quot;reference&quot; href=&quot;http://fr.dbpedia.org/&quot;&gt;http://fr.dbpedia.org/&lt;/a&gt;)&quot; and &quot;[lab.wikimedia.fr/semanticpedia](&lt;a class=&quot;reference&quot; href=&quot;http://lab.wikimedia.fr/semanticpedia&quot;&gt;http://lab.wikimedia.fr/semanticpedia&lt;/a&gt;)&quot;.&lt;/p&gt;
&lt;p&gt;In addition to the data extracted from Wikipedia, several extensions are considered, as the extraction of data from the wiktionary.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Auteur&lt;/strong&gt; :&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Alexandre Monnin&lt;/strong&gt;&lt;/p&gt;
&lt;ul class=&quot;simple&quot;&gt;
&lt;li&gt;Responsable Recherche Web et Métadonnées à l&#39;Institut de Recherche et d&#39;Innovation du Centre Pompidou (IRI)&lt;/li&gt;
&lt;li&gt;Doctorant en philosophie à Paris 1 (PHICO, EXeCO)&lt;/li&gt;
&lt;li&gt;Collaborateur extérieur de l&#39;INRIA (Membre associé de l&#39;EPI Wimmics, Centre de Recherche de Sophia-Antipolis)&lt;/li&gt;
&lt;li&gt;Doctorant associé au CNAM (équipe DICEN)&lt;/li&gt;
&lt;li&gt;Responsable du séminaire &quot;Philosophie du Web&quot;, 2011-2012 (Collège des Ecoles Doctorales de Paris 1, IRI, Implications Philosophiques)&lt;/li&gt;
&lt;li&gt;Responsable du séminaire &quot;Web social, Web Sémantique et musées&quot;, 2011-2012 (Ministère de la Culture, IRI ; Centre Pompidou, Wikimedia France, W3C)&lt;/li&gt;
&lt;li&gt;Enseignant en M2 à Marne-la-Vallée (&quot;Architecture du Web et Web Sémantique&quot;)&lt;/li&gt;
&lt;li&gt;Co-organisateur des &quot;&lt;a class=&quot;reference&quot; href=&quot;http://www.meetup.com/paris-web-of-data/&quot;&gt;Rencontres du Web de données&lt;/a&gt;&quot; au Centre Pompidou&lt;/li&gt;
&lt;li&gt;Membre du comité de rédaction de la revue Implications Philosophiques&lt;/li&gt;
&lt;li&gt;Twitter : @aamonnz &amp;amp; @PhiloWeb&lt;/li&gt;
&lt;li&gt;Philosophy of the Web, &lt;a class=&quot;reference&quot; href=&quot;http://web-and-philosophy.org/&quot;&gt;http://web-and-philosophy.org/&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;PhiloWeb on Dailymotion, &lt;a class=&quot;reference&quot; href=&quot;http://www.dailymotion.com/PhiloWeb&quot;&gt;http://www.dailymotion.com/PhiloWeb&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;Philosophy and Web discussion list @INRIA, &lt;a class=&quot;reference&quot; href=&quot;https://lists-sop.inria.fr/sympa/info/philoweb&quot;&gt;https://lists-sop.inria.fr/sympa/info/philoweb&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;</description>
  <dc:date>2024-05-03T14:12+00:00</dc:date>
  <dc:creator>Alexandre Monnin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/2663</guid>
  <title>Présentations éclair 2 mai 2012</title>
  <link>https://cms.semweb.pro/talk/2663</link>
  <description>&lt;p&gt;Le jour même, tous les participants pourront s&#39;inscrire pour présenter le sujet de leur choix en moins de 6 min.
Il y aura entre dix et douze présentations éclair en fin de journée. Premier arrivé, premier servi.&lt;/p&gt;</description>
  <dc:date>2024-05-03T14:12+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/2467</guid>
  <title>RDFa, comment insuffler un peu d&#39;intelligence à une page Web ?</title>
  <link>https://cms.semweb.pro/talk/2467</link>
  <description>&lt;p&gt;Le but de ce tutoriel est de présenter de manière concrète &lt;a class=&quot;reference&quot; href=&quot;http://www.w3.org/TR/xhtml-rdfa-primer/&quot;&gt;RDFa&lt;/a&gt;, recommandation du W3C qui permet d&#39;exprimer des triplets RDF dans des pages Web HTML.&lt;/p&gt;
&lt;p&gt;A travers différents exemples, nous montrerons pas à pas les principes de cette syntaxe de RDF revenant au passage sur les fondements du modèle de triplet. Puis, nous aborderons différents exemples d&#39;exploitation des données en &lt;a class=&quot;reference&quot; href=&quot;http://www.w3.org/TR/xhtml-rdfa-primer/&quot;&gt;RDFa&lt;/a&gt; tant du point de vue du site Web en lui-même, qu&#39;au niveau du navigateur que des moteurs de recherche (&lt;a class=&quot;reference&quot; href=&quot;http://ogp.me/&quot;&gt;Open Graph Protocol&lt;/a&gt;, &lt;a class=&quot;reference&quot; href=&quot;https://support.google.com/webmasters/bin/answer.py?hl=en&amp;amp;answer=99170&quot;&gt;Google rich snippet&lt;/a&gt;, &lt;a class=&quot;reference&quot; href=&quot;http://www.heppnetz.de/projects/goodrelations/&quot;&gt;Good Relations&lt;/a&gt;, &lt;a class=&quot;reference&quot; href=&quot;http://www.rechercheisidore.fr/index&quot;&gt;projet Isidore du CNRS&lt;/a&gt;).&lt;/p&gt;
&lt;img alt=&quot;http://www.w3.org/Icons/w3c_home&quot; class=&quot;align-left&quot; src=&quot;http://www.w3.org/Icons/w3c_home&quot;/&gt;
&lt;img alt=&quot;http://profile.ak.fbcdn.net/hprofile-ak-snc4/276415_246635612046637_1903609501_q.jpg&quot; class=&quot;align-left&quot; src=&quot;http://profile.ak.fbcdn.net/hprofile-ak-snc4/276415_246635612046637_1903609501_q.jpg&quot;/&gt;
&lt;img alt=&quot;http://img.freebase.com/api/trans/image_thumb/m/0cjc113?pad=1&amp;amp;errorid=%2Ffreebase%2Fno_image_png&amp;amp;maxheight=64&amp;amp;mode=fillcropmid&amp;amp;maxwidth=64&quot; class=&quot;align-left&quot; src=&quot;http://img.freebase.com/api/trans/image_thumb/m/0cjc113?pad=1&amp;amp;errorid=%2Ffreebase%2Fno_image_png&amp;amp;maxheight=64&amp;amp;mode=fillcropmid&amp;amp;maxwidth=64&quot;/&gt;
&lt;img alt=&quot;http://www.semweb.pro/file/2803?vid=download&quot; src=&quot;http://www.semweb.pro/file/2803?vid=download&quot;/&gt;
&lt;p&gt;Enfin, nous aborderons &lt;a class=&quot;reference&quot; href=&quot;http://www.schema.org&quot;&gt;schema.org&lt;/a&gt; ce qui sera l&#39;occasion de présenter cette initiative et d&#39;expliquer les différences entre &lt;a class=&quot;reference&quot; href=&quot;http://www.w3.org/TR/xhtml-rdfa-primer/&quot;&gt;RDFa&lt;/a&gt;, Microdata et &lt;a class=&quot;reference&quot; href=&quot;http://www.w3.org/TR/xhtml-rdfa-primer/&quot;&gt;RDFa&lt;/a&gt;, et dans ce contexte, les évolutions de RDFa 1.1&lt;/p&gt;</description>
  <dc:date>2024-04-10T13:53+00:00</dc:date>
  <dc:creator>Gautier Poupeau</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/2859</guid>
  <title>De la réutilisation de vocabulaires de description de données sémantiques</title>
  <link>https://cms.semweb.pro/talk/2859</link>
  <description>&lt;p&gt;&lt;strong&gt;Contexte&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;La publication de données formalisées et ouvertes sur le Web est en plein essor. Ce processus repose sur l’utilisation de vocabulaires formalisés définissant des types d&#39;objets et leurs propriétés, pour structurer et décrire les données. Lors de la construction d&#39;un jeu de données, se pose au modélisateur la question du choix de tels vocabulaires adaptés à ses données et à leurs utilisateurs potentiels.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Atelier&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;Le but de ce tutoriel est de présenter et d&#39;expérimenter la réutilisation de vocabulaires existants lorsque l&#39;on veut &quot;sémantiser&quot; et/ou publier un jeu de données. Après avoir présenté ce que sont les vocabulaires en question, nous illustrerons différentes techniques et outils pour sélectionner les plus pertinents par rapport au besoin. Puis nous mettrons en application ces notions dans un exercice pratique.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Intervenants&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;Pierre-Yves Vandenbussche et Thomas Francart de la société [Mondeca](&lt;a class=&quot;reference&quot; href=&quot;http://www.mondeca.com&quot;&gt;http://www.mondeca.com&lt;/a&gt;).&lt;/p&gt;</description>
  <dc:date>2024-05-03T14:19+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/2688</guid>
  <title>Schéma.org / microdata : la sémantique au plus près du lecteur et des  moteurs.</title>
  <link>https://cms.semweb.pro/talk/2688</link>
  <description>&lt;div class=&quot;section&quot; id=&quot;contexte&quot;&gt;
&lt;h3&gt;&lt;a&gt;Contexte&lt;/a&gt;&lt;/h3&gt;
&lt;p&gt;Points abordés :&lt;/p&gt;
&lt;ul class=&quot;simple&quot;&gt;
&lt;li&gt;L’accord Google, Bing, Yahoo sur un schema pour guider le balisage des pages HTML&lt;/li&gt;
&lt;li&gt;Les &lt;a class=&quot;reference&quot; href=&quot;https://support.google.com/webmasters/bin/answer.py?hl=en&amp;amp;answer=99170&quot;&gt;richsnippets&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;La stratégie de Google en ce qui concerne des fonctionnalités sémantiques : achat de &lt;a class=&quot;reference&quot; href=&quot;http://www.freebase.com/&quot;&gt;freebase&lt;/a&gt;, metaweb, les récentes annonces…&lt;/li&gt;
&lt;/ul&gt;
&lt;/div&gt;
&lt;div class=&quot;section&quot; id=&quot;atelier-baliser-une-base-html-avec-des-microdata-en-respectant-schema-org&quot;&gt;
&lt;h3&gt;&lt;a&gt;Atelier baliser une base HTML avec des microdata en respectant Schema.org&lt;/a&gt;&lt;/h3&gt;
&lt;p&gt;Points abordés :&lt;/p&gt;
&lt;ul class=&quot;simple&quot;&gt;
&lt;li&gt;Exemple de balisage&lt;/li&gt;
&lt;li&gt;Comprendre l’organisation de &lt;a class=&quot;reference&quot; href=&quot;http://schema.org/&quot;&gt;Schema.org&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;Quels impacts sur le résultat dans le moteur de recherche ?&lt;/li&gt;
&lt;li&gt;Comment les balises sont comprises par Google ?&lt;/li&gt;
&lt;/ul&gt;
&lt;/div&gt;
&lt;div class=&quot;section&quot; id=&quot;exercice-pratique&quot;&gt;
&lt;h3&gt;&lt;a&gt;Exercice pratique&lt;/a&gt;&lt;/h3&gt;
&lt;p&gt;Points abordés :&lt;/p&gt;
&lt;ul class=&quot;simple&quot;&gt;
&lt;li&gt;Outil d’aide au balisage&lt;/li&gt;
&lt;li&gt;Quels impacts pour les SEO ?&lt;/li&gt;
&lt;li&gt;Vers un SEO sémantique ?&lt;/li&gt;
&lt;li&gt;Quelles relations entre Schema.org et les standards du web sémantique ?&lt;/li&gt;
&lt;li&gt;L’influence d’ontologies populaires sur le développement de Schema.org&lt;/li&gt;
&lt;li&gt;Complémentarité du &lt;a class=&quot;reference&quot; href=&quot;http://linkeddata.org/&quot;&gt;LOD (Linked Open Data)&lt;/a&gt; et du balisage sémantique des pages web&lt;/li&gt;
&lt;li&gt;Baliser en &lt;a class=&quot;reference&quot; href=&quot;http://www.w3.org/TR/xhtml-rdfa-primer/&quot;&gt;RDFa&lt;/a&gt; plutôt qu’en &lt;a class=&quot;reference&quot; href=&quot;https://en.wikipedia.org/wiki/Microdata_%28HTML5%29&quot;&gt;microdata&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;/div&gt;</description>
  <dc:date>2012-04-02T09:19+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/2814</guid>
  <title>Développement d&#39;applications web sémantique avec CubicWeb</title>
  <link>https://cms.semweb.pro/talk/2814</link>
  <dc:date>2012-04-02T09:10+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/2468</guid>
  <title>SPARQL, comment illuminer vos mashups en consommant les données du Linked Data ?</title>
  <link>https://cms.semweb.pro/talk/2468</link>
  <description>&lt;p&gt;A partir de différents exemples de mashup réalisés avec les technologies du Web sémantique,, nous montrerons en quoi le modèle RDF et le langage de requêtes &lt;a class=&quot;reference&quot; href=&quot;https://en.wikipedia.org/wiki/SPARQL&quot;&gt;SPARQL&lt;/a&gt; constituent des solutions souples et universelles pour construire des &lt;a class=&quot;reference&quot; href=&quot;https://en.wikipedia.org/wiki/Mashup_%28web_application_hybrid%29&quot;&gt;mashups&lt;/a&gt; (&lt;a class=&quot;reference&quot; href=&quot;http://www.programmableweb.com/mashups&quot;&gt;mashups listés sur programmableweb.com&lt;/a&gt;).&lt;/p&gt;
&lt;p&gt;Nous aborderons aussi bien les aspects techniques que les points qui touchent plus spécifiquement les technologies du Web sémantique (récupération des données grâce à la négociation de contenu, requêtes &lt;a class=&quot;reference&quot; href=&quot;https://en.wikipedia.org/wiki/SPARQL&quot;&gt;SPARQL&lt;/a&gt;).&lt;/p&gt;</description>
  <dc:date>2024-04-10T13:53+00:00</dc:date>
  <dc:creator>Gautier Poupeau</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/3374</guid>
  <title>SKOS Play : publier et visualiser des thésaurus SKOS</title>
  <link>https://cms.semweb.pro/talk/3374</link>
  <description>&lt;p&gt;Dans un contexte où les professionnels de l&#39;information et de la
documentation s&#39;approprient les technologies du web de données, de
plus en plus de systèmes d&#39;organisation de connaissances sont publiés
en SKOS sur le web. Ces thesaurus, taxonomies ou classifications
permettent 1- un accès plus efficace à l&#39;information 2- une
interopérabilité entre catalogues grâce aux liens d&#39;alignement
inter-classification et 3- un début de structuration d&#39;un domaine de
connaissance.&lt;/p&gt;
&lt;p&gt;Avoir les données de ces thesaurus, c&#39;est bien, pouvoir faire quelque
chose de ces données, c&#39;est encore mieux ! c&#39;est ce que permet
l&#39;application SKOS Play [1] en générant, à partir de données en SKOS,
des documents de qualité professionnelle contenant l&#39;index
alphabétique des concepts, l&#39;arborescence hiérarchique, les tableaux
de traductions entre langues ou encore les index permutés KWIC. SKOS
Play permet également de générer des visualisations innovantes des
thesaurus à partir de la bibliothèque d3.js [2].&lt;/p&gt;
&lt;p&gt;Conçu comme un outil simple d&#39;utilisation, open-source, et à la
disposition de la communauté, SKOS Play permet de valoriser et
d&#39;encourager la publication de systèmes d&#39;organisation de
connaissances en SKOS. Il est utilisé par plusieurs portails de
publication de données, notamment celui du Ministère de la Culture
[3], heritagedata au Royaume-Uni [4], ou encore le thesaurus Reegle
[5] en Autriche.&lt;/p&gt;
&lt;p&gt;On détaillera dans la présentation les visualisations possibles (et
futures !) de l&#39;application, les challenges posés par le traitement de
données SKOS, et ce qui fait la spécificité des technologies du web de
données dans ce contexte.&lt;/p&gt;
&lt;p&gt;[1] [SKOS Play](&lt;a class=&quot;reference&quot; href=&quot;http://labs.sparna.fr/skos-play&quot;&gt;http://labs.sparna.fr/skos-play&lt;/a&gt;)&lt;/p&gt;
&lt;p&gt;[2] [d3js](&lt;a class=&quot;reference&quot; href=&quot;http://d3js.org/&quot;&gt;http://d3js.org/&lt;/a&gt;)&lt;/p&gt;
&lt;p&gt;[3] [Ginco Diffusion](&lt;a class=&quot;reference&quot; href=&quot;http://data.culture.fr/thesaurus&quot;&gt;http://data.culture.fr/thesaurus&lt;/a&gt;)&lt;/p&gt;
&lt;p&gt;[4] [heritagedata](&lt;a class=&quot;reference&quot; href=&quot;http://www.heritagedata.org/blog/vocabularies-provided/&quot;&gt;http://www.heritagedata.org/blog/vocabularies-provided/&lt;/a&gt;)&lt;/p&gt;
&lt;p&gt;[5] [Reegle thesaurus](&lt;a class=&quot;reference&quot; href=&quot;http://www.reegle.info/glossary&quot;&gt;http://www.reegle.info/glossary&lt;/a&gt;)&lt;/p&gt;</description>
  <dc:date>2024-05-03T13:28+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/3377</guid>
  <title>Présentation du navigateur datao</title>
  <link>https://cms.semweb.pro/talk/3377</link>
  <description>Présentation des dernières nouveautés du navigateur de données datao.</description>
  <dc:date>2014-11-19T13:35+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/3379</guid>
  <title>Datalift, une plateforme Linked Data, Retour d&#39;expériences</title>
  <link>https://cms.semweb.pro/talk/3379</link>
  <description>&lt;p&gt;La production, la consommation et l&#39;échange de données s&#39;intensifient
et le besoin d&#39;interopérabilité n&#39;a jamais été aussi prégnant. Mais
a-t-on encore le temps de développer des interfaces ou de mettre au
point une langue commune entre acteurs ? A-t-on encore besoin de
telles interfaces qui ne serviront peut-être qu’une fois ? Ou bien la
solution n’est pas plutôt dans une data interopérable ? Le linked data
n&#39;est plus un Eldorado incertain, il est devenu une réalité aux
dimensions vastes et en expansion mais encore méconnue.&lt;/p&gt;
&lt;p&gt;Datalift est une plateforme tout-en-un productrice de linked data qui
apporte une solution concrète et aisée. Les données à traiter sont
captées dans leurs structures d&#39;origine (fichiers, bases de données,
requêtes, données géographiques, etc.). A l&#39;aide de vocabulaires
(thesaurus, ontologies), elles sont transformées pour faciliter leurs
liaisons. Les fusions obtenues enrichissent mutuellement les sources
en même temps qu’elles forment un ensemble de données liées (linked
data) exploitables de multiples façons : requêtes, data visualisation,
extractions, exports dans de nombreux formats. Ces opérations peuvent
être réalisées sans programmation sur un socle open source de façon
interactive, elles peuvent aussi être automatisées. La richesse
fonctionnelle et technologique de Datalift fait que ses utilisateurs
vont des simples utilisateurs aux datascientistes, mais aussi au
dialogue machine to machine.&lt;/p&gt;
&lt;p&gt;Le développement de la plateforme et son utilisation permettent
aujourd&#39;hui de dresser un premier regard rétrospectif que nous nous
proposons de présenter en trois temps. Nous commencerons notre exposé
par la démonstration d’une interconnexion de jeux de données
hétérogènes rendue possible par un alignement d’ontologies. Cette démo
visibilisera le caractère « tout-en-un » d’une plateforme qui
s’installe en un clic. Nous poursuivrons par un survol de
l’architecture de la plateforme. Nous terminerons par un triple retour
d’expérience : méthodologique, architectural et usages.&lt;/p&gt;</description>
  <dc:date>2014-11-19T13:35+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/3406</guid>
  <title>Réaliser une application Web sémantique grâce à l’outil VIVO - Cas pratique de LOP Inra</title>
  <link>https://cms.semweb.pro/talk/3406</link>
  <description>&lt;p&gt;Le but de cette présentation est de faire découvrir les plateformes
Vitro et VIVO développées par l’université de Cornell. Vitro est une
plate-forme d’édition, de navigation, de recherche et de publication
de données en RDF. Son interface permet de modifier à la fois
l’ontologie et les instances, et peut être customisé (pour la
présentation ou la recherche). VIVO quant à lui est une adaptation
particulière de Vitro pour les acteurs de la recherche scientifique.&lt;/p&gt;
&lt;p&gt;À l’Inra, nous avons utilisé VIVO pour proposer une version sémantique
des publications scientifiques de l’Inra contenues dans l’archive
institutionnelle Prodinra. Le résultat offre des fonctions de
recherche/découverte/visualisation des acteurs de la recherche
(personnes, structures), de leurs activités et productions, ainsi que
des événements auxquels ils participent. Le projet a consisté en une
migration des données de ProdInra vers VIVO, un chargement des données
dans VIVO, une customisation de l’ontologie utilisée par VIVO ainsi
que des templates d’affichage des données.&lt;/p&gt;</description>
  <dc:date>2014-11-19T13:35+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/3383</guid>
  <title>Spécialisation du moteur sémantique Cognit’Ive dans différents contextes utilisateurs</title>
  <link>https://cms.semweb.pro/talk/3383</link>
  <description>&lt;p&gt;Cette communication a pour objectif de présenter le moteur sémantique
d’agrégation de contenus Cognit’Ive, développé par le Lab Object’Ive,
et sa spécialisation dans le cadre de trois use-cases différents.&lt;/p&gt;
&lt;p&gt;La solution Cognit’Ive consiste en une plateforme permettant d’agréger
et d’enrichir sémantiquement des contenus provenant de sources
diverses et de formats différents.  Le moteur sémantique de Cognit’Ive
inclut à la fois les dernières technologies du web sémantique ainsi
que des technologies issues du data/text mining et de la
datavisualisation.  Cognit’Ive a été spécialisé dans le cadre de
plusieurs use-cases dont :&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;p class=&quot;first&quot;&gt;&lt;em&gt;SemanticMail&lt;/em&gt; :&lt;/p&gt;
&lt;p&gt;Ce projet consiste en la spécialisation de
Cognit’Ive pour l’enrichissement sémantique des boites mails des
collaborateurs EDF.  Il a été présenté au concours Innovation
EDF 2013. Le Jury a décidé de la réalisation d’un pilote auprès
d’une centaine d’utilisateurs avant un déploiement à plus grande
échelle dans le courant de l’année 2014.  Les principales
fonctionnalités implémentées sont les suivantes : classification
automatique des mails (supervisée et non supervisée), extraction
d’entités métiers, proposition d’informations associées (mails
similaires, recommandations de contenus connexes issus de sources
externes), recherche intelligente par facettes dans la boite mail
et navigation enrichie (regroupements par thèmes, interface web, vue des
mails selon une time-line dynamique)&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;&lt;p class=&quot;first&quot;&gt;&lt;em&gt;Projet CRM&lt;/em&gt; :&lt;/p&gt;
&lt;p&gt;Ce projet a pour objectif l’intégration dans Cognit’Ive des
compte-rendus commerciaux issus du CRM de la société afin de
procéder à leur enrichissement sémantique en vue de faire émerger
automatiquement de nouvelles informations : identification des
opportunités business, tendances du marché, tendances des
rendez-vous commerciaux effectués, degré de satisfaction client,
planning des prochaines actions commerciales, informations
complémentaires sur les Business Units d’un client...&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;&lt;p class=&quot;first&quot;&gt;&lt;em&gt;Projet Access Request&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;La finalité de cette spécialisation de Cognit’Ive est d’analyser et
enrichir les requêtes techniques (incidents et demandes d’accès) des
équipes du support IT afin d’identifier les sujets importants et
récurrents pour mieux les anticiper. Les informations extraites
portent ici notamment sur : l’identification des serveurs,
applications, base de données, références de fiches Jira concernés
par les demandes ; la localisation du demandeur ; l’unité
organisationnelle émettant la demande ; l’analyse de la fréquence
des demandes par type de sujet...&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;</description>
  <dc:date>2014-11-19T13:35+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/3385</guid>
  <title>Système de recommandation sémantique de news économiques pour la veille économique</title>
  <link>https://cms.semweb.pro/talk/3385</link>
  <description>&lt;p&gt;De nos jours dans les secteurs commerciaux et financiers, la veille
électronique d’articles économiques est cruciale. Maintenir une veille
efficace implique de cibler les articles à consulter, car la charge
d’information est importante. Pour répondre à cette problématique,
nous proposons un système novateur de recommandation d’articles, car
il s’appuie sur l’intégration d’une description sémantique des items
et des profils basés sur une modélisation ontologique des
connaissances. Notre approche s’établit sur l’adéquation de la
recommandation aux besoins des utilisateurs. Pour cela, nous avons
mené une enquête auprès des clients-lecteurs pour définir les critères
qui pourraient permettre la personnalisation du contenu de la
revue. Les résultats de l’enquête ainsi que la connaissance des
experts du domaine ont permis de mettre en avant les trois critères
principaux suivants : les Thèmes (principaux évènements économiques
traités dans l’article), les secteurs économiques dont traitent
l’article, et les Localisations. Les développements réalisés dans le
cadre de ce projet se composent des trois axes suivants.&lt;/p&gt;
&lt;p&gt;Le premier axe se caractérise par le développement d’une architecture
sémantique pour l’annotation, l’indexation de documents, le profilage
des clients, et finalement la recommandation de revues économiques.&lt;/p&gt;
&lt;p&gt;Le deuxième axe résident dans l’ontologie de domaine réalisée en
coopération avec les documentalistes de la société Actualis. Cette
ontologie constitue la connaissance métier permettant l’annotation et
l’indexation des articles économiques.&lt;/p&gt;
&lt;p&gt;Le dernier axe se compose du moteur de recommandation exploitant la
connaissance métier afin de calculer une similarité asymétrique entre
chaque article économique indexé et chaque profil utilisateur. Suites
au retour d’expériences fournies par le prototype développé l’année
précédente, nous avons pu mettre en production un outil fonctionnel
commercialisé depuis début février. Les technologies employées dans
l’architecture technique de la solution en production se composent de
triplestores pour stocker les connaissances, les documents, les
profils, et interaction utilisateurs, etc. Le modèle de données
sémantiques se traduit par l’usage des langages RDF et OWL-DL. Les
contraintes logiques de ce second sont exploitées à son maximum dans
le processus de classification hiérarchique multiétiquette et
automatique des documents dans un modèle prédictif ontologique.&lt;/p&gt;</description>
  <dc:date>2014-11-19T13:35+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/3387</guid>
  <title>Modèle d’Information du Bâtiment et Web Sémantique</title>
  <link>https://cms.semweb.pro/talk/3387</link>
  <description>&lt;p&gt;Le cycle de vie d’un bâtiment se décompose en deux grandes phases : la
construction et la maintenance. Chaque phase fait intervenir
différents corps de métiers (architecte, bureau d’études,
plombiers...), avec, pour chacun, différents vocabulaires, processus
et logiciels. Le plan papier, conçu par l’architecte, est la seule
référence acceptée par tous. Charge à l’architecte de conduire cette
hétérogénéité d’acteurs, de logiciels et de données jusqu’à l’étape de
livraison. Ensuite, c’est au gestionnaire de patrimoine de coordonner
les actions de maintenance et de réhabilitation.&lt;/p&gt;
&lt;p&gt;Pour faciliter l’automatisation de l’interopérabilité entre ces
acteurs, un standard de modélisation des données du bâtiment a été
proposé en 1999 par l’association BuildingSmart. Ce format : Industry
Foundation Classes (IFC 2X3 dans sa version actuelle) permet de
représenter l’intégralité des objets qui composent le bâtiment sous la
forme d’une maquette numérique 3D. Cette maquette est utilisée par
l’ensemble des logiciels dédiés aux professions du bâtiment. Au-delà
des objets du bâtiment, de nombreuses professions utilisent les
informations de cette maquette, tels les assureurs, les notaires, les
comptables, les impôts... L’ensemble des connaissances associées aux
bâtiments fait l’objet de nombreux travaux de recherche sur le thème
du BIM (Building Information Modelling).&lt;/p&gt;
&lt;p&gt;Pour répondre à l’ensemble des besoins liés à cette modélisation et
cette gestion du BIM, nous avons développé une plateforme basée sur
des ontologies OWL DL stockées dans un triplestore. Le peuplement est
réalisé par un module sémantique développé à partir de l’ETL Talend
Open Studio.  Des requêtes SPARQL sont utilisées pour extraire des
données de cet environnement (par exemple des vues 3D de la maquette
pour fournir uniquement les données pertinentes à chaque corps de
métier). Des règles SWRL sont construites visuellement et stockées
dans le triplestore pour créer de nouveaux concepts et les peupler par
inférence (par exemple le concept &quot;mur de façade&quot; qui n’existe pas
dans la norme IFC) ou encore pour calculer des parcours de déplacement
dans le bâtiment pour des simulations multiagents.&lt;/p&gt;
&lt;p&gt;Cet ensemble stocke actuellement 70 millions de m2 de patrimoine
immobilier sous la forme de triplets RDF avec 20 millions d’objets
connectés qui ont leur propre autonomie grâce à la sémantique. Des
milliers d’utilisateurs travaillent quotidiennement sur cette
plateforme. Cette solution a remporté en 2003 la médaille d’or de
l’innovation au salon international du bâtiment (Batimat 2003) et elle
est lauréate du Concours Mondial de l’Innovation dans la catégorie
BigData en 2014.&lt;/p&gt;</description>
  <dc:date>2014-11-19T13:35+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/3389</guid>
  <title>Naturopédia : Publication multi-supports et animation communautaire augmentés par la sémantique</title>
  <link>https://cms.semweb.pro/talk/3389</link>
  <description>&lt;p&gt;Ce projet consiste à réaliser une plate-forme technologique
communautaire permettant la valorisation et l’exploitation d’un fonds
documentaire construit autour d’un domaine d’expertise. Dans le cadre
du projet Naturopédia, le corpus valorisé est dédié à la naturopathie
et à l’agro-écologie. Il est composé d’une cinquantaine d’ouvrages
soit théoriques soit techniques, ainsi que d’une large documentation
annexe. L’objectif de ce projet est de s’appuyer sur ce corpus d’une
richesse rare, pour fédérer une communauté de pratique aujourd’hui mal
outillée, de favoriser la diffusion de ce savoir et le partage
d’expérience entre les acteurs du domaine, professionnels ou
amateurs. L’objectif des équipes rassemblées dans le projet
Naturopedia est de mettre à disposition des pouvoirs publics, des
multiples ONG du secteur, des entreprises de l’Economie Sociale et
Solidaire, des technologies de diffusion innovantes, de nouveaux
services de collecte et propagation de la connaissance, leur
permettant d’amplifier leurs actions et d’œuvrer pour le bien public.&lt;/p&gt;
&lt;p&gt;L’originalité de ce projet réside dans l’intégration de différentes
approches, théoriques et techniques, issues de l’ingénierie
documentaire (séparation fond-forme, publication multi-supports,...)
et de l’ingénierie des connaissances (annotation sémantique des
contenus par ontologie de domaine) pour la création d’une chaîne
éditoriale hybride et innovante. Pour cela, Mnémotix, en partenariat
avec Kelis, la société en charge du développement de la chaine
éditoriale libre SCENARI, prendra à sa charge le processus
d’annotation semi-automatique du corpus Naturopédia, ainsi que
l’exploitation de ces annotations dans le processus de génération
multi-supports SCENARI.&lt;/p&gt;
&lt;p&gt;La souplesse des modèles documentaires conçus pour le projet, la
granularité de la structuration des contenus ainsi que la pertinence
des annotations sémantiques devront permettre à terme de publier à la
volée des compilations de type “livre de recettes” destinés soit aux
professionnels du domaine soit au grand public, sous la forme de
modules pédagogiques compatibles SCORM, d’ebooks ou d’applications
mobiles.&lt;/p&gt;
&lt;p&gt;Dans le cadre de notre intervention, nous présenterons tout d’abord
l’architecture globale du projet, telle qu’elle a été conçue. Nous
détaillerons ensuite la phase de sémantisation et de transformation du
corpus documentaire. Nous aborderons également les verrous
technologiques que nous avons identifiés ainsi que les stratégies
envisagées pour les lever, notamment dans l’intégration des
technologies Mnémotix au sein de l&#39;environnement d&#39;édition open-source
SCENARI. Enfin, nous parlerons des contraintes liées aux formats
d’export : applications mobiles, livres électroniques ou bien
formations en ligne et leur intégration avec la plate-forme
collaborative destinée à fédérer les communautés Naturopathie et
agro-écologie.&lt;/p&gt;</description>
  <dc:date>2014-11-19T13:35+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/3391</guid>
  <title>Présentation de Bano</title>
  <link>https://cms.semweb.pro/talk/3391</link>
  <description>&lt;p&gt;Bano est une base d&#39;adresses composite à partir des meilleures sources
disponibles (et libres).&lt;/p&gt;
&lt;p&gt;L&#39;objectif est de proposer une couverture la plus étendue possible, la
plus homogène possible.&lt;/p&gt;
&lt;p&gt;Bien sûr à son démarrage BANO ne sera pas exhaustive, ni parfaite
(quelles données sont parfaites ?) et fonctionnera dans l&#39;esprit
&quot;release early, release often&quot; cher au monde de l&#39;open-source.&lt;/p&gt;
&lt;p&gt;Il s&#39;agit donc d&#39;un projet ouvert et collaboratif ou toutes les bonnes
volontés sont les bienvenues pour apporter des données, des outils, du
code, des ressources matérielles, de la matière grise !&lt;/p&gt;</description>
  <dc:date>2014-11-19T13:35+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/3393</guid>
  <title>Du web sémantique à tous les étages</title>
  <link>https://cms.semweb.pro/talk/3393</link>
  <description>&lt;p&gt;L&#39;ABES a pour métier la gestion des métadonnées bibliographiques de
l&#39;enseignement supérieur français. Soit elle les récupère auprès de
fournisseurs (autres catalogues, éditeurs), soit elle coordonne leur
production par le réseau des bibliothèques universitaires.&lt;/p&gt;
&lt;p&gt;Depuis 2008 et surtout 2010, l&#39;ABES mise sur le web sémantique. Comme
d&#39;autres, elle a d&#39;abord décidé de partager et de lier ses métadonnées
sur le web de données. Cela concerne tous ses catalogues : le
catalogue général Sudoc, le catalogue des archives et des manuscrits
Calames, le catalogue theses.fr et sa base-référentiel de personnes,
collectivités, concepts... IdRef. Ce travail d&#39;ouverture est toujours
en cours, car le principal format natif à traduire en RDF, appelé
MARC, est très riche, et même touffu. Pour l&#39;instant, l&#39;exposition en
RDF se fait à la volée, à partir d&#39;une base XML qui stocke du MARC
en XML. Passer à un triplestore semble tentant, mais on
résiste... tout en cherchant une solution pour devenir interrogeable
en SPARQL.&lt;/p&gt;
&lt;p&gt;A partir de 2013, l&#39;ABES a commencé à utiliser RDF comme
pivot pour agréger et traiter des métadonnées fournies par des des
tiers sous des formes très variées. Il s&#39;agit donc de commencer à
travailler en RDF, et plus seulement de l&#39;utiliser en sortie.&lt;/p&gt;
&lt;p&gt;Aujourd&#39;hui, on commence à réfléchir à l&#39;avenir des outils de
production de métadonnées du réseau Sudoc. Là encore, faut-il aller
vers du RDF natif ?  Tout en retraçant ce cheminement qui touche tous
les aspects de nos expertises et applications métier, nous tenterons
d&#39;expliciter les contraintes et les principes directeurs qui
déterminent nos actions et nos interrogations.&lt;/p&gt;</description>
  <dc:date>2014-11-19T13:35+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/3395</guid>
  <title>Visibilité et web de données</title>
  <link>https://cms.semweb.pro/talk/3395</link>
  <description>&lt;p&gt;C’est le paradoxe des bibliothèques : l’intérêt des internautes pour
leurs ressources numérisées ne cesse d’augmenter, comme en témoigne
l’accroissement de la fréquentation de la bibliothèque numérique
Gallica ; cependant, ces ressources, ainsi que les contenus de nos
catalogues, ne sont pas ou peu accessibles depuis les moteurs de
recherche du web. Aussi nos missions de médiation et de diffusion
culturelle doivent-elles aujourd’hui être repensées sous l’angle du
marketing du web : comment faciliter l’accès à nos ressources, toucher
de nouveaux publics, favoriser les découvertes heureuses sur le web ?&lt;/p&gt;
&lt;p&gt;La visibilité des ressources de la Bibliothèque nationale sur le web
est devenue une question stratégique, en particulier à travers le
service &lt;a class=&quot;reference&quot; href=&quot;http://data.bnf.fr&quot;&gt;http://data.bnf.fr&lt;/a&gt;, qui repose sur les standards du web
sémantique. Trois ans après son ouverture, le site &lt;a class=&quot;reference&quot; href=&quot;http://data.bnf.fr&quot;&gt;http://data.bnf.fr&lt;/a&gt; compte
plus de 130 000 visiteurs uniques par mois, dont 80% viennent des
moteurs de recherche du web, et 60% rebondissent vers les catalogues
et autres bases de la BnF. Un exemple d’utilisation : un internaute
cherchant« Satires, Nicolas Boileau » sur le web, trouve la page
&lt;a class=&quot;reference&quot; href=&quot;http://data.bnf.fr/12050177/nicolas_boileau_les_satires/&quot;&gt;http://data.bnf.fr/12050177/nicolas_boileau_les_satires/&lt;/a&gt;, laquelle
fournit un point d’accès unique et fiable aux nombreuses déclinaisons
de cette œuvre dans les collections de la BnF, numérisées ou non,
adapté aux moteurs de recherche et au parcours des internautes.&lt;/p&gt;
&lt;p&gt;À la lumière de cette expérience, nous nous interrogeons sur les
rapports entre web sémantique et visibilité dans les résultats de
recherche des moteurs de recherche. Au-delà de l’exposition des
données en RDF ou de l’intégration de schema.org, dont nous mesurons
mal l’impact effectif sur le référencement du site, trois facteurs
nous paraissent essentiels: la valeur ajoutée intrinsèque des
contenus, l’organisation de la masse et l’inscription dans un
réseau. &lt;a class=&quot;reference&quot; href=&quot;http://data.bnf.fr&quot;&gt;http://data.bnf.fr&lt;/a&gt; crée en effet des pages web avec du contenu et des
informations à forte compétitivité par sa qualité ou sa rareté, dans
le contexte d’une offre culturelle pléthorique sur le
web. Deuxièmement, il organise la masse d’informations publiées par la
BnF (près de 20 millions de notices de catalogues et de référentiels
d’auteurs, œuvres, thèmes, ou lieux, 3 millions de documents
numérisés), en s’appuyant sur des traitements automatiques
d’alignement et de regroupement des informations. Enfin, l’inscription
de ces ressources dans un réseau global, en s’appuyant sur des
alignements à des jeux de données extérieurs, permet de développer les
liens sortants et, dans une certaine mesure, de favoriser les liens
entrants.&lt;/p&gt;</description>
  <dc:date>2014-11-19T13:35+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/3397</guid>
  <title>Présentation du portail sémantique de la FEVIS</title>
  <link>https://cms.semweb.pro/talk/3397</link>
  <description>&lt;p&gt;Présentation du projet de portail de la [FEVIS](&lt;a class=&quot;reference&quot; href=&quot;http://www.fevis.com/&quot;&gt;http://www.fevis.com/&lt;/a&gt;)
(Fédération des Ensembles Vocaux et
Instrumentaux Spécialisés) qui viste à promouvoir le patrimoine des
ensembles adhérents à la fédération.&lt;/p&gt;
&lt;p&gt;La présentation exposera l&#39;intérêt du web sémantique pour un tel
projet, les différents jeux de données utilisés pour relier les
données patrimoniales (data.bnf.fr, dbpedia, portail de la musique
contemporaine, etc.), ainsi que les difficultés rencontrer pour la
réutilisation des ontologies existantes.&lt;/p&gt;</description>
  <dc:date>2024-05-03T13:30+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/3399</guid>
  <title>The Read-Write Secure Linked Data Web</title>
  <link>https://cms.semweb.pro/talk/3399</link>
  <description>&lt;p&gt;In order to enable a space of co-operation between distributed organisation
in an agile manner read only Linked Data is not enough. One also needs:&lt;/p&gt;
&lt;ul class=&quot;simple&quot;&gt;
&lt;li&gt;to write data to remote systems in a RESTful manner&lt;/li&gt;
&lt;li&gt;to allow an actor to bind himself to a remote action&lt;/li&gt;
&lt;li&gt;global identification - so that an actor can know who said what and what action he commited himself to&lt;/li&gt;
&lt;li&gt;distributed access control&lt;/li&gt;
&lt;li&gt;...&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Henry Story will show how the LDP Protocol (in last call) enables one
to build this, how it ties into WebID and Web Access Control, and how
it differentiates itself and complements technologies such as SPARQL.&lt;/p&gt;</description>
  <dc:date>2014-11-19T13:35+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/3401</guid>
  <title>Web Sémantique et Linked Open Data : des usages aux données, comment tirer profit des données ouvertes dans un mashup web</title>
  <link>https://cms.semweb.pro/talk/3401</link>
  <description>&lt;p&gt;Cette conférence présentera les bonnes pratiques pour la conception et
la réalisation d&#39;une application web tirant profit de plusieurs
sources de données ouvertes : comment choisir les jeux de données ?
Comment les articuler ou les agréger ?&lt;/p&gt;
&lt;p&gt;Cette présentation s&#39;appuiera sur un exemple concret : l&#39;application «
Musées de France », primée en avril 2014 par le ministère de la
Culture dans le cadre du concours Semanticpedia.&lt;/p&gt;</description>
  <dc:date>2014-11-19T13:35+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/3403</guid>
  <title>Applications pour les mashups sémantiques côté client</title>
  <link>https://cms.semweb.pro/talk/3403</link>
  <description>&lt;p&gt;La tendance dans les technologies Web est de déporter de plus en plus
de calculs côté client. Cela permet aux fournisseurs de services
d&#39;alléger les serveurs et de réduire la bande passante lors des
échanges de données, et accessoirement aux utilisateurs de mieux
maîtriser leurs données. Dans cette présentation, nous proposons
d&#39;appliquer également cette tendance aux technologies du Web
sémantique.&lt;/p&gt;
&lt;p&gt;Les principaux verrous quant à l&#39;implémentation côté client de
technologies habituellement localisées côté serveur sont d&#39;une part la
lourdeur des calculs (qui tend à être contrebalancée par
l&#39;amélioration des performances des clients) et la connaissance
partielle des données, limitée aux données publiques et à celles du
client. Nous aborderons des stratégies existantes pour surmonter ou
contourner ces difficultés.&lt;/p&gt;
&lt;p&gt;Forts de plusieurs expériences dans les domaines du Web, des services
et du Web sémantique, nous avons spécifié et sommes en train de
développer un framework fondé sur RDF-REST [SALAD 2013] permettant de
réaliser des mashups de ressources sémantiques [SALAD 2014]. Ce
framework est entièrement programmé en JS et respecte les standards du
Web et les principes des architectures RESTful. Nous présenterons les
grands principes de ce framework, ainsi que les aspects techniques et
les outils sur lesquels s&#39;appuie son implémentation.&lt;/p&gt;
&lt;p&gt;Les applications de ce framework vont du mashup de données à la
découverte de services REST en passant par le Web des objets. Nous
donnerons notamment l&#39;exemple d&#39;une application de gestion de
conférence existante et en cours d&#39;évolution pour intégrer ce
framework.&lt;/p&gt;</description>
  <dc:date>2014-11-19T13:35+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/3405</guid>
  <title>The Next 10 Years of Success</title>
  <link>https://cms.semweb.pro/talk/3405</link>
  <description>&lt;p&gt;Le Web Sémantique est un succès !&lt;/p&gt;
&lt;p&gt;Présentation de clôture par Phil Archer sur les travaux passés et futurs au W3C.&lt;/p&gt;
&lt;p&gt;[Présentation W3C](&lt;a class=&quot;reference&quot; href=&quot;http://www.w3.org/2014/Talks/1105_phila_semwebpro/&quot;&gt;http://www.w3.org/2014/Talks/1105_phila_semwebpro/&lt;/a&gt;)&lt;/p&gt;</description>
  <dc:date>2024-05-03T13:31+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/510535</guid>
  <title>Retour MOOC Web Sémantique</title>
  <link>https://cms.semweb.pro/talk/510535</link>
  <dc:date>2015-11-25T10:19+00:00</dc:date>
  <dc:creator>Marla Da Silva</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/509776</guid>
  <title>Feuille de route “ Métadonnées culturelles et transition Web 3.0 ” du ministère de la Culture et de la Communication</title>
  <link>https://cms.semweb.pro/talk/509776</link>
  <description>&lt;p&gt;La feuille de route stratégique “Métadonnées culturelles et transition web 3.0”,
finalisée en 2014, a permis d’identifier 9 axes stratégiques, ouverts par le web
sémantique et les données liées, pour le ministère de la Culture et ses
partenaires institutionnels. Ces 9 axes relèvent d’une politique numérique à
moyen-long terme. À la suite cette première étape d’identification, des groupes
de travail thématiques ont élaboré des propositions d’action transverses à
initialiser à court-moyen terme – idéalement à partir de la toute fin 2015 ou en
2016. Ces propositions d’action sont en cours d’instruction. Elles concernent
des domaines aussi divers que la formation des personnels, l’interopérabilité
des vocabulaires métier ou la recherche et développement.&lt;/p&gt;
&lt;p&gt;Elles ont vocation à favoriser la consolidation, la synergie et le développement
des technologies orientées web sémantique au service des institutions culturelles.&lt;/p&gt;</description>
  <dc:date>2024-05-02T14:02+00:00</dc:date>
  <dc:creator>Marla Da Silva</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/510050</guid>
  <title>Libre Théâtre, plateforme facilitant l&#39;accès gratuit aux textes de théâtre français libres de droit</title>
  <link>https://cms.semweb.pro/talk/510050</link>
  <description>Le site Libre Théâtre propose une bibliothèque numérique des
oeuvres théâtrales du domaine public en téléchargement gratuit.
Valorisant des ressources désormais accessibles grâce à l’ouverture
des données publiques et des politique open data, le site proposera,
pour chaque œuvre, des ressources complémentaires, libres d’utilisation :
affiches, décors, éditions, costumes, analyses d&#39;oeuvres… Ce site, basé sur
les principes du web sémantique et du Linked Open Data, facilitera la recherche
de textes de théâtre en accès libre par différents critères, puis une navigation
facile entre les différents corpus proposés. La présentation exposera l’ensemble
 du projet, les différents jeux de données qui sont et seront utilisés, ainsi que
les difficultés rencontrées dans la mise en oeuvre de cette initiative (accès aux
ressources, modèle économique, contraintes juridiques…).</description>
  <dc:date>2024-05-02T14:48+00:00</dc:date>
  <dc:creator>Marla Da Silva</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/510262</guid>
  <title>Gestion de serveurs avec une plateforme sémantique</title>
  <link>https://cms.semweb.pro/talk/510262</link>
  <description>Comment un expert en infrastructure informatique peut-il analyser une
infrastructure vaste et complexe dans un délai court lors d’un incident
de production ? Corrium est la plateforme sémantique conçue pour pallier
cette problématique. Corrium s’appuie sur une ontologie, HoNaHo, pour
formaliser les connaissances des experts en infrastructure informatique.

Les données clients sont, ensuite, traitées selon le modèle HoNaHo pour
construire un référentiel, ce qui permet à l’expert en infrastructure
d’analyser son parc IT et de prendre des décisions. L’ontologie HoNaHo est
développée par nos ontologistes en collaboration avec des experts en
infrastructure informatique. A noter que la cohérence des connaissances
des experts est vérifiée grâce au mécanisme nommé « Check Consistency ».

Grâce à Corrium nous gérons l’infrastructure de plusieurs clients dans la
métropole lilloise. Pour chaque client, nous collectons ses données
d’infrastructure qui peuvent provenir de sources hétérogènes (différents
outils d’inventaires). Les données sont, ensuite, injectées dans Corrium,
puis réconciliées et consolidées grâce à notre mécanisme de fusion. A la
suite de cette étape, un référentiel d’infrastructure IT est construit, il
 contient la liste exhaustive des assets IT reliés entre eux, ce qui permet
de diminuer la complexité du parc. La cohérence de l’information (cohérence
entre les connaissances de l’expert et les informations) peut être vérifié
grâce un deuxième « Check Consistency ». Corrium contient KStore, la solution
logicielle d’intelligence, pour améliorer la qualité des données clients.
KStore est constitué de plusieurs briques dont KStore-Engine, le moteur
 d’inférences basé sur des règles sémantiques (OWL, JenaRule et SPARQL). En se
basant sur les règles écrites par les experts en infrastructure, KStore-Engine
raisonne et infère sur le référentiel précédemment construit pour l’enrichir. 

A ce stade, Corrium a construit un point de vérité sur l’état du parc IT
du client, et a déduit de nouvelles informations grâce au web sémantique.

Ainsi, lors d’un incident de production, le référentiel IT permet à l’expert
en infrastructure informatique d’analyser son parc IT et de prendre des décisions
dans un délai court. Actuellement Corrium est utilisé pour un autre usage, préparer
un audit de licences Microsoft. Une ontologie dédiée au sujet est développée et un
pack de règles d’inférences SPARQL est créé pour gérer les coûts de licence.

Ajouté à cela, d’autres usages sont en étude, tel que la gestion et le suivi
de la migration d’une infrastructure IT.</description>
  <dc:date>2024-05-02T14:51+00:00</dc:date>
  <dc:creator>Marla Da Silva</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/510321</guid>
  <title>Doremus - Extension de l&#39;ontologie FRBRoo pour la description des œuvres et événements musicaux</title>
  <link>https://cms.semweb.pro/talk/510321</link>
  <description>Le projet Doremus est un projet de recherche financé par l’ANR auquel
participe la BnF, Radio France, la Philharmonie de Paris, le Lirmm
(Université de Montpellier), Geriico (Université de Lille III),
Eurecom, Meaning Engines et Ourouk. La musique est partout, jouée,
enregistrée, diffusée, écoutée, vendue, offerte, louée. Les fichiers
de musique enregistrée sont partout, stockés, streamés, échangés, vendus.

Mais rien n’est plus difficile aujourd’hui que de trouver sur le web
l’histoire d’une œuvre musicale, son compositeur, son origine culturelle,
ses paroliers, ses influences, ses reprises, ses interprétations…

Pourtant ces connaissances existent et sont décrites finement dans les
systèmes d’information de quelques institutions culturelles et média dans
le monde. Le premier objectif du projet DOREMUS est de permettre aux
institutions culturelles, aux éditeurs et distributeurs, ainsi qu’aux
communautés de passionnés de disposer de modèles de connaissances communs
(ontologies), de référentiels partagés et multilingues ainsi que de méthodes
pour publier, partager, connecter, contextualiser, enrichir les catalogues
d’œuvres et d’événements musicaux dans le web des données (Linked Open Data).

Le projet s’appuie sur l’expertise de catalogage des œuvres musicales de Radio
France, de la BnF, de la Cité de la musique, du projet collaboratif Discotheka
de la société Meaning Engines et sur un corpus de modèles préexistants, en
particulier FRBRoo.

Les extensions et spécialisations d’ontologies et les vocabulaires qui résulteront
du projet devront permettre de décrire les œuvres et événements musicaux, de la
musique traditionnelle à la musique classique, leurs relations avec les créateurs,
leur environnement culturel, les événements liés à leur création, leurs interprétations,
leur fonction sociale, les instruments, les genres musicaux… tout en s’inscrivant dans
la continuité des catalogues d’œuvres existants. La description des œuvres musicales ne
prend de sens que si elle est mise à disposition des publics comme élément d’éducation
et de culture, utilisée comme outils facilitant la programmation d’émissions et
d’événements musicaux, permettant de suggérer de nouvelles interprétations ou servant
de source d’inspiration pour d’autres œuvres, c’est les sujets des deux autres parties
du projet qui ne seront pas abordés dans cette présentation. La présentation replacera
le projet dans son contexte, en termes de standards utilisés, d’existant à la BnF, Radio
France et Philharmonie de Paris, détaillera le projet et son avancement. Nous porterons
un soin particulier à expliquer le rôle et les relations d’ontologies descriptives des
œuvres intellectuelles telles que CIDOC-CRM, FRBR, FRBRoo, PRESSoo.</description>
  <dc:date>2024-05-02T14:54+00:00</dc:date>
  <dc:creator>Marla Da Silva</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/510372</guid>
  <title>ELI : des identifiants pour le croisement des sources ouvertes du droit</title>
  <link>https://cms.semweb.pro/talk/510372</link>
  <description>Le projet ELI, consiste à créer un identificateur européen et des métadonnées standardisés pour la législation des Etats membres par le biais du web sémantique et de rendre disponible ces données dans le Linked Open Data via l’annotation sémantique des pages des Journaux Officiels. ELI est entré dans la phase de réalisation technique pour différents Journaux Officiels, notamment la France (DILA), l’Union Européenne, le Royaume Uni, le Luxembourg. Cette infrastructure de connaissance sur les ressources législatives des différents états de l’Union Européenne ouvre de nombreuses perspectives de réutilisation et de création de services innovants.</description>
  <dc:date>2015-11-25T10:19+00:00</dc:date>
  <dc:creator>Marla Da Silva</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/510378</guid>
  <title>Évolution d&#39;un système de publication de données techniques automobiles, modélisées en RDF</title>
  <link>https://cms.semweb.pro/talk/510378</link>
  <description>Début 2010, pour répondre à une directive européenne, Renault mettait
en oper sa première application basée sur les techniques du semantic web :
un système de publication des documents et données de sa documentation
technique après-vente, en charge d’alimenter un site web à destination
des réparateurs indépendants. Aujourd&#39;hui, on veut faire évoluer la solution,
pour prendre en compte de nouvelles sources de données, et élargir son audience.

La solution initiale peut-elle évoluer facilement ? est-elle scalable et
supportera-t-elle un important surcroit de charge ? Certains parlent d’un échec
du Semantic Web : les choix techniques faits se sont-ils révélés pertinents ?
Que ferait-on différemment aujourd&#39;hui ? Cinq années ont passé : de nouvelles
techniques sont apparues (JSON-LD, par exemple), d&#39;autres ont mûri (Solr), JSON
et javascript sont devenus incontournables. Ce qui faisait défaut est-il maintenant
disponible ? Par exemple, comment intégrer les formulaires (ou les templates d’URI)
dans une API basée sur les Linked Data ? (alors que le web repose à la fois sur les
liens hypertextes et les formulaires, les linked data ne connaissent que les liens)

Après avoir expliqué la particularité de la recherche documentaire dans le contexte
automobile (qui fait nécessairement sortir du cadre du modèle relationnel - et donc
de SPARQL - pour l’évaluation de la pertinence d’un document en fonction du véhicule
auquel on s’intéresse), nous reviendrons brièvement sur ce qui avait fait le succès
de la solution initiale - en particulier, les capacités d’agrégation de RDF, qui 
avaient permis de réconcilier facilement des données de sources variées. Nous dirons
ce que nous avons abandonné - pour faire bref, disons que SPARQL n’est plus aussi
central dans la solution, ou du moins qu’il n’en est plus le seul cœur. Mais surtout,
nous verrons comment il a été possible de modifier assez profondément l&#39;architecture
initiale en intégrant des techniques nouvelles et en s’inspirant d’idées récentes
(“Hypermedia driven web APIs”, Hydra, JSON-LD, web components, etc).

Nous verrons aussi quelques limites ou promesses pas complètement tenues par les
techniques en œuvre. Nous ferons la démonstration d’un prototype d’IHM en javascript
construite sur la solution, montrant une recherche documentaire complexe, entièrement
guidée par les données, avec un minimum de couplage entre serveur et client.</description>
  <dc:date>2024-05-02T14:56+00:00</dc:date>
  <dc:creator>Marla Da Silva</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/510417</guid>
  <title>Open Data française à l&#39;heure du Linked Data</title>
  <link>https://cms.semweb.pro/talk/510417</link>
  <description>&lt;p&gt;Depuis fin 2014, Colin Maudry convertit les métadonnées des
jeux de données publiés sur data.gouv.fr en un graphe RDF.
Il met également à disposition une API qui tire sa flexibilité
de la puissance du graphe. La présentation exposera les avantages
d&#39;une API reposant sur un graphe et son potentiel pour la
publication de données pivots (InfoGreffe, codes postaux, etc.).
Quelques liens :
-   [Conversion des métadonnées data.gouv.fr vers RDF](&lt;a class=&quot;reference&quot; href=&quot;https://www.data.gouv.fr/fr/datasets/metadonnees-des-jeux-de-donnees-publies-sur-data-gouv-fr-rdf-web-semantique/&quot;&gt;https://www.data.gouv.fr/fr/datasets/metadonnees-des-jeux-de-donnees-publies-sur-data-gouv-fr-rdf-web-semantique/&lt;/a&gt;)
-   [CasanovaLD, la Linked data API](&lt;a class=&quot;reference&quot; href=&quot;https://www.data.gouv.fr/fr/reuses/casanovald-devergonde-les-metadonnees-data-gouv-fr/&quot;&gt;https://www.data.gouv.fr/fr/reuses/casanovald-devergonde-les-metadonnees-data-gouv-fr/&lt;/a&gt;)
-   [Code source de l&#39;application](&lt;a class=&quot;reference&quot; href=&quot;https://github.com/ColinMaudry/datagouvfr-rdf&quot;&gt;https://github.com/ColinMaudry/datagouvfr-rdf&lt;/a&gt;)&lt;/p&gt;</description>
  <dc:date>2024-05-02T14:58+00:00</dc:date>
  <dc:creator>Marla Da Silva</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/510456</guid>
  <title>Plugin SMILK : données liées et traitement de la langue pour améliorer la navigation Web</title>
  <link>https://cms.semweb.pro/talk/510456</link>
  <description>&lt;p&gt;Pour nourrir leur stratégie marketing et leur veille concurrentielle,
les entreprises doivent surveiller le Web et donner un sens à cette grande
quantité d&#39;informations. Cette information est éparpillée et nécessite beaucoup
de temps pour analyser les différentes sources et compiler les connaissances
recueillies de manière intelligente. SMILK est un laboratoire commun entre
l&#39;Institut de recherche Inria et la société VISEO pour étudier le couplage fort
d&#39;algorithmes et de modèles linguistiques au niveau sémantique, l&#39;extraction et
le liage de connaissances issues des ressources du Web et la combinaison de
différentes techniques de raisonnement (inférences logiques, des approximations
et similitude, etc.). Dans ce contexte, nous allons présenter un prototype permettant
d&#39;enrichir les connaissances des utilisateurs naviguant sur le Web à l&#39;aide de
résultats issus du Traitement Automatique du Langage Naturel, du Web de Données et des
réseaux sociaux. Notre présentation se concentrera sur la démonstration d&#39;un plugin de
navigateur facile à installer et à utiliser, qui permet d’enrichir l’expérience utilisateur
avec quatre fonctions : - la démo commence par montrer comment il est possible d&#39;identifier
dans une page les entités pertinentes selon les intérêts de l&#39;utilisateur et comment
structurer les données connexes à l&#39;aide d&#39;une analyse linguistique dédiée ;
- la deuxième partie de la démo montre comment nous lions les entités reconnues dans le texte ;
- la troisième étape de la démo traite du liage d’entités pour connecter les données figurant
dans le texte avec les données obtenues à partir de bases de connaissances du Web ;
- enfin, dans une dernière étape la démo montre l’intégration de connaissances issues des médias
sociaux pour fournir aux utilisateurs des opinions et les idées clés liées au sujet exploré.&lt;/p&gt;
&lt;p&gt;Le prototype que nous présenterons intègre entièrement les quatre fonctions précédemment définies
et, dans le cadre de cette démonstration, est appliqué au domaine des cosmétiques.&lt;/p&gt;
&lt;p&gt;#### Auteurs :
Elena Cabrio, Jordan Calvi, Fabien Gandon, Cédric Lopez, Farhad Nooralahzadeh, Thibault Parmentier,
Frédérique Segond Laboratoire Commun SMILK, Inria, VISEO&lt;/p&gt;
&lt;p&gt;Remerciements : ces travaux de R&amp;amp;D et transfert sont soutenus par l’ANR au travers du laboratoire
commun SMILK ANR-13-LAB2-0001-01&lt;/p&gt;</description>
  <dc:date>2024-05-02T15:00+00:00</dc:date>
  <dc:creator>Marla Da Silva</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/510478</guid>
  <title>Interroger efficacement des bases de données relationnelles avec SPARQL et Ontop</title>
  <link>https://cms.semweb.pro/talk/510478</link>
  <description>&lt;p&gt;L’élaboration manuelle de nouvelles requêtes SQL à l’adresse de bases de données relationnelles
ayant des schémas complexes est un processus lent et coûteux qui se révèle être critique pour
de nombreuses industries. Ce processus nécessite de combiner deux types d’expertise : celle du
domaine concerné (exprimer une question pertinente de façon précise) et celle de la base de
données (localiser les informations recherchées dans la base de données).
L’approche OBDA (Ontology-Based Data Access) vise à automatiser une partie de ce processus en
(i) permettant aux utilisateurs d’exprimer les requêtes à partir d’un modèle conceptuel de leur
domaine indépendant du schéma relationnel et (ii) en traduisant automatiquement ces requêtes dans
le langage supporté par la base de données (SQL). Dans cette présentation, nous nous intéresserons
au système OBDA développé à l’Université Libre de Bozen-Bolzano (Italie) dénommé Ontop.&lt;/p&gt;
&lt;p&gt;Ce projet, débuté en 2010, repose sur plusieurs standards du Web sémantique : (i) OWL 2 QL pour
la modélisation des concepts du domaine, (ii) SPARQL pour la formulation des requêtes utilisateurs
et (iii) R2RML pour l’exposition du contenu de la base de données sous forme de graphe RDF virtuel.&lt;/p&gt;
&lt;p&gt;Ce logiciel est disponible sous licence libre. Le principal enjeu pour un système OBDA est de générer
des requêtes SQL optimisées pouvant être exécutées efficacement par le moteur de base de données.&lt;/p&gt;
&lt;p&gt;Ontop propose de nombreuses optimisations sémantiques et structurelles lui permettant d’obtenir une
performance suffisamment élevée pour permettre l’exécution de requêtes complexes sur des bases de données
de grande taille en un temps acceptable. Ce système intègre également des capacités d’inférence à faible
coût ne nécessitant aucune matérialisation des données.&lt;/p&gt;
&lt;p&gt;Nous présenterons ensuite son intégration dans la plateforme développée dans le cadre du projet européen
Optique et sur son utilisation par les géologues d’un de nos partenaires industriels, Statoil.&lt;/p&gt;
&lt;p&gt;À cette occasion, nous reviendrons sur les principaux défis introduits par ce cas d’usage industriel.
L’équipe participant au développement d’Ontop au sein de l’Université Libre de Bozen-Bolzano est
actuellement composée de Martin Rezk, Guohui Xiao, Sarah Komla Ebri, Elem Güzel, David Lanti,
Elena Botoeva et Benjamin Cogrel. Elle est coordonnée par Diego Calvanese.&lt;/p&gt;
&lt;dl class=&quot;docutils&quot;&gt;
&lt;dt&gt;Quelques liens :&lt;/dt&gt;
&lt;dd&gt;&lt;a class=&quot;reference&quot; href=&quot;http://ontop.inf.unibz.it/&quot;&gt;http://ontop.inf.unibz.it/&lt;/a&gt;
&lt;a class=&quot;reference&quot; href=&quot;http://optique-project.eu/&quot;&gt;http://optique-project.eu/&lt;/a&gt;&lt;/dd&gt;
&lt;/dl&gt;</description>
  <dc:date>2024-05-02T15:02+00:00</dc:date>
  <dc:creator>Marla Da Silva</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/510491</guid>
  <title>Sparklis : exploration et interrogation de points d&#39;accès SPARQL par interaction et langue naturelle</title>
  <link>https://cms.semweb.pro/talk/510491</link>
  <description>Sparklis est une application Web de recherche sémantique qui fonctionne au-dessus
de points d&#39;accès SPARQL. Il n&#39;est pas lié à un point d&#39;accès particulier, mais
peut fonctionner avec n&#39;importe quel point d&#39;accès public ou privé. Le principe de
Sparklis est de permettre aux utilisateurs d&#39;explorer et interroger les données en
les guidant dans la construction de requêtes puissantes en langue naturelle (anglais
ou français). Une requête SPARQL est construite en même temps mais elle est seulement
affichée en bas de la page pour l&#39;utilisateur curieux ou pour l&#39;expert qui souhaite
la réutiliser dans un autre outil. Les utilisateurs n&#39;ont pas besoin de connaître le
schéma de données ou le vocabulaire car ils le découvrent à la volée en naviguant.

Ils n&#39;ont rien à écrire, à part les valeurs de filtrage (ex., mots-clés, seuils),
ce qui exclut toute erreur lexicale, syntaxique ou sémantique. Sparklis couvre un
large sous-ensemble de SPARQL : motifs de graphes, OPTIONAL, UNION, NOT EXISTS,
tri des résultats, agrégations, filtres principaux (mots clés, inégalités et
intervalles, tag de langue et datatype). Enfin, il est conçu pour passer à l&#39;échelle
de gros jeux de données et fonctionne par exemple sur DBpedia (plusieurs milliards de
triplets).

Sparklis est en ligne depuis avril 2014 et depuis, des centaines d&#39;utilisateurs l&#39;ont
utilisé sur des centaines de points d&#39;accès.
Sparklis s&#39;appuie sur les standards du W3C : SPARQL pour l&#39;interrogation, HTML5/CSS3
et Javascript pour l&#39;interface et l&#39;interaction.

Une démonstration montrera aux participants comment Sparklis permet de répondre aux
questions du challenge QALD sur DBpedia. Ces questions couvrent différents types de
recherche : faits de base (Give me the homepage of Forbes), listes d&#39;entités (Which
rivers flow into a German lake?), comptages (How many languages are spoken in Colombia),
optimums (Which of Tim Burton&#39;s films had the highest budget}).

Il est aussi possible de répondre à des questions analytiques plus complexes telles que
Give me the total runtime, from highest to lowest, of films per director and per country.</description>
  <dc:date>2024-05-02T15:04+00:00</dc:date>
  <dc:creator>Marla Da Silva</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/15965954</guid>
  <title>Persée et le web de données</title>
  <link>https://cms.semweb.pro/talk/15965954</link>
  <description>L’UMS Persée, développe le portail [Persee](www.persee.fr), 
une bibliothèque patrimoniale de publications scientifiques principalement
en sciences humaines et sociales. Le portail diffuse aujourd’hui plus de
600.000 documents scientifiques en libre accès et en texte intégral.

L’équipe Persée est depuis longtemps convaincue de l’intérêt de lier ses
données à d’autres sources d’informations. Cela se traduit par l’attribution
de DOI aux documents, par un travail conséquent sur l’identification de
citations entre les documents, par l’alignement de ses auteurs avec
les référentiels nationaux [ABES](http://www.idref.fr/) et [BnF](http://www.data.bnf.fr),
mais également avec des sources extérieures au monde des bibliothèques :
wikipédia, RePEc, etc.

Persée a fait le choix de ne pas utiliser de procédures
permettant de rechercher massivement des correspondances entre ses
documents et des vocabulaires et/ou référentiels. Au lieu de cela,
plusieurs méthodologies ont été mises en œuvre :
* des algorithmes de recherche ciblés permettent de
dégager des liens candidats qui sont soumis à une validation
humaine,
* des outils permettant d’interroger des référentiels « pivot »
lors de la production des contenus de Persée,

* des outils exploitant le web de données et permettant
de construire, à partir de ces liens validés, de nouveaux
liens.

Cette démarche permet d’atteindre un haut niveau de
pertinence dans les liens qui sont associés à chaque ressource
diffusée par Persée.
		
Aujourd’hui, Persée franchit un nouveau cap en établissant des
liens fondés sur les contenus des documents : deux projets
aboutiront, fin 2016, à la mise en ligne de collections
intégrant de nouveaux types de liens sémantiques.

Le projet ATHAR, en collaboration avec le laboratoire inVisu de l’INHA,
établit des liens entre des publications anciennes et un [thésaurus](http://cairogazetteer.fr/invisu/)
d’identification des monuments du Caire.
Plusieurs collections en sciences de la vie et de la terre pour lesquelles des
liens ont été établis entre les documents de Persée et la classification taxonomique exposée
par [GBIFhttp://www.gbif.org/)](Global Biodiversity Information Facility).

Pour chacune des ressources indexées, le portail Persée
proposera une page composite permettant notamment de :
* lister les contenus présents sur Persée (documents, iconographie, etc.),
* fournir des informations complémentaires issues des sites tiers,
* fournir des liens permettant à l’utilisateur de rebondir vers d’autres sources d’information.

Au-delà de cette exploitation sur le portail web, l’équipe Persée mettra à
disposition de la communauté (fin 2016) un triple store permettant, dans une
logique d’ouverture et de partage, d’exposer toute la richesse des données
produites et/ou collectées.

#### Présenté par

**Viviane Boulétreau** - Responsable du pôle Informatique et développement de l’UMS Persée.

Ingénieur de recherche, Viviane Boulétreau travaille depuis 1999, dans le domaine de la diffusion
et la valorisation des résultats de la recherche : CyberThèses (SGML), CyberDoc (XML), archives
ouvertes et www.persee.fr depuis 2003. Quelques mots clés résument son activité et son engagement :
open access, open source, open data.

Actuellement, Viviane Boulétreau pilote le projet de refonte du socle technologique de l&#39;UMS dans une
logique de SI distribué.</description>
  <dc:date>2024-04-29T08:33+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/15965995</guid>
  <title>Construction d’un référentiel taxonomique commun pour des études sur l’histoire de la zoologie, l’archéozoologie et la biologie</title>
  <link>https://cms.semweb.pro/talk/15965995</link>
  <description>Une des missions du Muséum National d’Histoire Naturelle
(MNHN) est d’établir une synthèse de la biodiversité et du
patrimoine naturel français.  Dans ce contexte, il est en
charge de l’élaboration d’un référentiel taxonomique pour la
faune, la flore et la fonge, TAXREF.  Ce référentiel unique
liste et organise les noms scientifiques de l&#39;ensemble des
êtres vivants recensés sur les territoires français, métropole
et outremer, et constitue la pierre angulaire du Système
d’Information sur la Nature et les Paysages (SINP). Il est
utilisé par de nombreux acteurs publics, privés et de la
société civile (collectivités, conservateurs, cabinets
d’architecte, enseignants, citoyens, etc.).  TAXREF est de
plus aligné avec d&#39;autres référentiels taxonomiques ou
nomenclaturaux internationaux.

Le projet de recherche Zoomathia vise à étudier l’histoire 
de la connaissance zoologique à travers l’Antiquité
et le Moyen-Age.  Pour cela, il envisage d’utiliser les
technologies du web sémantique afin d’intégrer des sources de
données hétérogènes, allant d’encyclopédies médiévales à des
données de biologie moderne, en passant par des rapports de
fouilles archéologiques et des ressources iconographiques.  Ce
travail passe nécessairement par la sélection et/ou la
définition de vocabulaires pouvant servir de référentiels
taxonomique, culturel, géographique, chronologique etc. Afin
de rendre les données intégrées interopérables sur le web, ces
vocabulaires doivent faire l’objet d’un consensus et être liés
à d’autres vocabulaires connexes faisant autorité. TAXREF
étant le résultat d’un large consensus scientifique, et étant
déjà utilisé pour l’intégration de données de biologie moderne
et de données archéologiques, il a été sélectionné pour
construire un thésaurus supportant l’intégration des données
considérées dans le cadre du projet Zoomathia.

Dans cette présentation, je reviendrai sur les motivations
exposées ci-dessus, puis je décrirai la modélisation d’un
thésaurus exprimé en SKOS (Simple Knowledge Organisation System)
afin de produire une version de TAXREF exploitable avec les technologies
du web sémantique. J’aborderai notamment la question du lien entre ce
&quot;TAXREF-SKOS&quot; et d’autres thésaurus et ontologies existantes.
Enfin, je décrirai la méthode utilisée pour produire le résultat en
RDF et son exposition sur le web de données sous forme d’URI pérennes
déréférençables, et je ferai une courte démonstration via la navigation
dans les URI en Linked Data et l’utilisation de requêtes SPARQL.
En conclusion, je reviendrai sur le fait que la construction de thésaurus
SKOS n’est qu’une étape, un « enabler », visant à encourager les producteurs
de données utilisant déjà TAXREF, et les concepteurs d’applications,
à utiliser ces technologies et s’appuyer sur TAXREF-SKOS.

#### Présenté par

**Franck Michel**

Après avoir travaillé pendant 14 ans dans le secteur privé des
télécommunications, Franck Michel a rejoint le CNRS en 2011 comme
ingénieur de recherche au laboratoire I3S. Ses travaux de recherche
concernent la publication et la fédération de données hétérogènes
sur le Web de données. En particulier il étudie des méthodes permettant de traduire
en RDF différents types de bases de données, avec un focus sur les bases NoSQL.
Dans ce contexte il a développé un prototype permettant d&#39;interroger une base MongoDB
en SPARQL (Morph-xR2RML). Franck a participé au projet CNRS MASTODONS Credible sur
la fédération de données biomédicales et participe actuellement au projet Zoomathia
sur l&#39;étude de la transmission des connaissances zoologiques antiques; il collabore
avec le Muséum National d&#39;Histoire Naturelle pour la publication du référentiel
taxonomique TAXREF sur le Web de données.

Par ailleurs, Franck est impliqué dans plusieurs activités liées à l&#39;infrastructure
de calcul européenne [European Grid Infrastructure (EGI)](http://www.egi.eu). 
Il assure la coordination technique et le support d&#39;une communauté d&#39;utilisateurs en
sciences de la vie, et participe à élaboration et au développement d&#39;outils de
monitoring et de gestion de ressources.	  

[Visitez sa page personnelle !](http://modalis.i3s.unice.fr/fmichel)</description>
  <dc:date>2024-04-29T08:52+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/15966103</guid>
  <title>Visualisations des thématiques d’un centre de recherche</title>
  <link>https://cms.semweb.pro/talk/15966103</link>
  <description>&lt;p&gt;Les mécanismes de financement et d’évaluation de la
	    recherche ont conduit à une très forte croissance de la
	    production d’articles scientifiques. Cette croissance a
	    rendu difficile la recherche d’informations dans cette
	    masse de données.  Divers travaux dans le monde
	    s’attachent à améliorer cette situation.&lt;/p&gt;
	  
	  &lt;p&gt;Dans ce cadre, le département Traitement du Signal et des
	    Images de Telecom ParisTech a entrepris un travail
	    d’analyse sémantique des publications scientifiques de cet
	    organisme au cours des cinq dernières années.&lt;/p&gt;
	  
	  &lt;p&gt;Des méthodes assez classiques de traitement des langues
	    naturelles combinées avec les travaux récents de
	    description sémantique d’articles scientifiques permettent
	    de proposer des regards nouveaux sur ces productions.&lt;/p&gt;
	  
	  &lt;p&gt;Par exemple, il est possible des thématiques communes à
	    des groupes chercheurs qui ne recoupent pas nécessairement
	    la structure organisationnelle, essentiellement
	    arborescente, des départements de recherche ou les
	    rapprochements entre co-auteurs de publications.&lt;/p&gt;
	  
	  &lt;p&gt;Il est également possible, par exemple, de visualiser
	  l’évolution des thématiques pour des chercheurs ou des
	  groupes de chercheur.&lt;/p&gt;
	  
	  &lt;p&gt;Les visualisations proposées sont destinées à faciliter
	    en interne les collaborations, notamment pour les nouveaux
	    arrivants, et, à donner à l’extérieur une meilleure
	    visibilité sur les résultats produits : recherche de
	    spécialistes, coopération sur des projets…&lt;/p&gt;
	  
	  &lt;p&gt;Le travail porte sur environ 4000 publications. Seulement
	    1200 environ sont directement disponibles sur la base de
	    donnée interne à l’école. Pour les autres, divers
	    problèmes, dont des problèmes de copyright, rendent
	    l’accès plus complexe. La question de l’accessibilité des
	    publications scientifiques sera abordée, mais pas traitée
	    en profondeur.&lt;/p&gt;
	  
	  &lt;p&gt;Nous verrons la chaine de traitement mise en œuvre, les
	    données intermédiaires produites et les visualisations qui
	    en sont issues.  Nous montrerons comment la chaîne de
	    production retenue se prête bien à l’ajout progressif des
	    nouvelles publications et comment celle-ci pourrait être
	    transposée à d’autres organismes ou d’autres
	    activités.&lt;/p&gt;


	  &lt;strong&gt;&lt;em&gt;Jean-Claude Moissinac&lt;/em&gt;&lt;/strong&gt;
	  &lt;p&gt; Jean-Claude Moissinac est Maître de Conférences au
	  département Traitement du Signal et des Images, dans le
	  groupe ‘technologies du multimédia’. Depuis plusieurs années
	  ses activités l’amènent à utiliser les technologies de la
	  représentation sémantique en liaison avec le multimédia
	  (interactions multimodales, web services sémantiques…).&lt;/p&gt;</description>
  <dc:date>2022-07-14T21:44+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/15966141</guid>
  <title>Construction assistée de thésaurus à l&#39;aide de Machine Learning</title>
  <link>https://cms.semweb.pro/talk/15966141</link>
  <description>Le métier de Proxem est de collecter un corpus de
documents sur un domaine spécifique, de l’organiser, puis
celui-ci organisé, d’extraire de l’information au niveau
du corpus entier. L’étape d’organisation comprend
généralement deux étapes : une étape d’annotation
(extraction de concepts organisés selon un thésaurus) puis
une étape de classification via une certaine taxonomie
définie avec le client.  L’étape d’annotation nécessite un
paramétrage adapté au domaine du corpus et donc
généralement de connaître l’univers associé, sa
terminologie, etc. Par ailleurs, une approche type « page
blanche » cause des problèmes de taux de couverture.
          
Dans l’optique de répondre à ce problème, Proxem a
développé une solution de construction de thésaurus
assistée par Machine Learning, via une double approche :

* Une approche bottom-up : après une étape d’apprentissage
non-supervisé réalisé sur le corpus (calcul de clusters, de
représentations distributionnelles de termes, etc.), l’ordinateur
fait des propositions à l’utilisateur et ce dernier valide ou
invalide ces propositions.  Ensuite, via une démarche itérative,
l’ordinateur prend en compte les décisions de l’utilisateur, et
essaie d’améliorer ses propositions. 
Le nommage des clusters se fait via l&#39;importation des données de
WikiData.
Une approche top-down : l’utilisateur importe de la
connaissance du monde, via par exemple de la donnée
structurée existante. Cette donnée structurée permet
d’apprendre des modèles d’apprentissage supervisés que
l’on utilise directement sur notre corpus en inférence.
Il peut également importer des bases de connaissances au
format SKOS (ESCO pour les Ressources Humaines, EuroVoc,
GEMET, AGROVOC, etc.)

Pour chacun des concepts du thésaurus, l’ordinateur
propose plusieurs façons d’extraire le concept dans le
corpus (désambiguïsation via termes activateurs et
inhibiteurs, modèle d’extraction d’entités nommées
pré-appris, etc.). L’ordinateur propose directement les
termes correspondants aux concepts dans les autres
langues, permettant ainsi la création d’un thésaurus
multilingue, exportable au format SKOS.
	  
Une fois que l’utilisateur est satisfait du thésaurus, il
peut ensuite s’en servir pour annoter son corpus et
indexer les annotations afin de les requêter dans un
moteur de recherche et d&#39;obtenir les résultats en
affichant les mots en contexte comme le ferait un
concordancier.
	
#### Auteurs
**Jean-Marc Marty**
Diplômé de l’Ecole Polytechnique en 2014, Jean-Marc
Marty a rejoint l’équipe de Recherche et Développement de
Proxem pour développer les technologies d’analyse sémantique
de l’entreprise. Il est plus particulièrement spécialisé
dans l’apprentissage de modèles de langues et dans le
développement de modèles statistiques en vue de la
classification cross-langage de documents.</description>
  <dc:date>2024-04-29T09:24+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/15966168</guid>
  <title>Isidore et Nakala</title>
  <link>https://cms.semweb.pro/talk/15966168</link>
  <description>Huma-Num est une très grande infrastructure de recherche
(TGIR) visant à faciliter le tournant numérique de la
recherche en sciences humaines etsociales.
	  
Pour remplir cette mission, la TGIR Huma-Num est bâtie
sur une organisation originale consistant à mettre en œuvre
un dispositif humain (concertation collective) et
technologique (services numériques pérennes) à l’échelle
nationale et européenne en s’appuyant sur un important
réseau de partenaires et d’opérateurs.
	  
La TGIR Huma-Num favorise ainsi, par l’intermédiaire de
consortiums regroupant des acteurs des communautés
scientifiques, la coordination de la production raisonnée
et collective de corpus de sources (recommandations
scientifiques, bonnes pratiques technologiques). Elle
développe également un dispositif technologique unique
permettant le traitement, la conservation, l&#39;accès et
l&#39;interopérabilité des données de la recherche.  Ce
dispositif est composé d&#39;une grille de services dédiés,
d&#39;une plateforme d&#39;accès unifié et d’enrichissement des
données et d&#39;une procédure d&#39;archivage à long terme dédiée
aux données SHS.
	  
La TGIR Huma-Num propose en outre des guides de bonnes
pratiques technologiques généralistes à destination des
chercheurs. Elle peut mener ponctuellement des actions
d&#39;expertise et de formation. Elle porte la participation de
la France dans le projet DARIAH-EU en coordonnant les
contributions nationales.

* NAKALA
un service de stockage pérenne et de signalement des
données de la recherche en SHS ISIDORE une solution
complète d’enrichissement sémantique des données de
la recherche et des publications scientifiques
en SHS.

Pour les utilisateurs recherchant de l’information et
des documents :

* Sur le web, via le portail www.rechercheisidore.fr 
* Sur les tablettes et téléphones connectés via le
site m.rechercheisidore.fr
* Au travers d’applications embarquées dans les outils
d’édition électronique (blogs et site web sous
WordPress)
* Des widgets pour Windows et Mac.
	      
Pour les développeurs, architecte de données,
documentalistes et webmestres :

* Une API du moteur de recherche de www.rechercheisidore.fr
est disponible
	
* Une interface d’interrogation SPARQL (endpoint) pour
interroger en SPARQL les triplets RDF enrichis et
contenus dans le triple-store ISIDORE
	
* Des widgets de développement « ISIDORE à la demande»
(ISIDORE on demand) dans le cadre du programme ISIDORE
Motor Constructor (ISIDORE-MC)

Via la technologie OpenSearch
ISIDORE est en exploitation depuis 2011 et fonctionne
en mode 24/7.
	  



**Stéphane Pouyllau**
Ingénieur de recherche au CNRS (Centre National de la
Recherche Scientifique), Stéphane Pouyllau est spécialisé
depuis 1999 en humanités numériques (digital humanities), en
information scientifique et technique et en informatisation
des données de la recherche en sciences humaines et
sociales. Il a co-créé en 2005 et développé le centre
national pour la numérisation de sources visuelles jusqu&#39;en
2009.

Il est l&#39;initiateur et le co-concepteur de MédiHAL
(archive ouverte pour photographies et images scientifiques)
du CNRS et le concepteur de plusieurs sites web
institutionnels sur le patrimoine scientifique français. Il
a créé l&#39;archive numérique d&#39;objets et de matériaux
iconographiques scientifiques destinée à héberger des fonds
d&#39;archives scientifiques.

De 2009 à fin 2011, il a travaillé au TGE Adonis
(aujourd&#39;hui Huma-Num) où il a animé les questions de
digital humanities puis chef de projet en charge - avec
Jean-Luc Minel (Pr. à l&#39;Université Paris Ouest la Défense et
TGE Adonis) - de la réalisation de la plateforme de
recherche ISIDORE.

De janvier 2012 à mars 2013, il a été le directeur de la
très grande infrastructure de recherche Corpus-IR et chargé
de mission pour le développement d&#39;ISIDORE.

Il est actuellement directeur-adjoint technique
d&#39;Huma-Num, la très grande infrastructure de recherche pour
les humanités numériques et responsable de la plateforme
ISIDORE. Dans ce cadre, il est le coordinateur scientifique
du programme H2020 Parthenos pour Huma-Num et le CNRS.

Il a reçu en 2009, le Cristal du CNRS.

Il est également membre du conseil scientifique de
l&#39;Agence bibliographique de l&#39;enseignement supérieur (ABES)
et de l&#39;équipex Biblissima.</description>
  <dc:date>2024-04-29T09:32+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/15966203</guid>
  <title>L’expérimentation web sémantique du projet ISTEX</title>
  <link>https://cms.semweb.pro/talk/15966203</link>
  <description>Le projet ISTEX est un investissement d&#39;avenir soutenu
par l’Agence Nationale de la Recherche visant à doter la
France d&#39;une bibliothèque numérique scientifique reposant
sur deux axes complémentaires : d&#39;une part, une
acquisition massive de publications scientifiques (17
millions) couvrant l&#39;ensemble des disciplines et d&#39;autre
part, la mise en place d&#39;une plateforme unique
d&#39;hébergement, de gestion et d&#39;accès à ces ressources.  En
janvier 2016, l’Inist­CNRS a lancé une expérimentation
visant à publier, selon les normes du web sémantique, des
données extraites du projet ISTEX.  Cette expérience vise
à développer une méthode pour mettre en ligne des jeux de
données dans le respect des normes et standards du
W3C. L’objectif est de répondre aux demandes des
documentalistes et des chercheurs, en utilisant la
structuration sémantique comme un moyen pour répondre à
plusieurs besoins :
          
* proposer une documentation structurée et interopérable du
fond ISTEX pour les utilisateurs de portail documentaire
comme pour les chercheurs­

* mettre à disposition des équipes de recherche des
jeux de données très spécifiques permettant d’alimenter
leurs travaux de recherche sur du machine learning ou du
data alignement
	    
* valoriser les jeux de données produits par des
travaux de recherche
	    
* rendre compatible le fond ISTEX avec des entrepôts de
données présents dans le web sémantique faciliter
d’avantage les travaux de recherche dédiés à la fouille de
textes (bibliométrie, scientométrie, ...).
	    

Les jeux de données sont là pour venir compléter,
enrichir, consolider et lier toutes les informations
présentes dans la plateforme. L’objectif est de proposer un
graphe de jeux de données structurées reliés à des
ressources extérieures ou à des référentiels d’autorité. In
fine, ce lacis de données conduira toujours à un retour vers
les documents plein texte présents dans ISTEX. C’est une
autre façon pour diffuser et exploiter les ressources
acquises.
	  
La structuration sémantique proposée impose la modélisation des
informations à publier au travers d’une ou plusieurs ontologies
existantes. Ce postulat révèle des difficultés plus ou moins
attendues : choix et appropriation des ontologies, d’une
structuration sur des données hétérogènes. Elle a également
permis de vérifier des attentes concrètes ouvrant la voie à un passage
à l&#39;échelle plus compatible avec le volume des données présent
dans le fond ISTEX.
	

#### Auteurs

**Nicolas Thouvenin**

Responsable du service “R&amp;amp;D et expérimentation” de
l’Inist­CNRS, Nicolas s&#39;intéresse aux technologies et
standards du web sémantique depuis 2011, lors de ses
premiers travaux sur la publication de terminologies
scientifiques au format SKOS. En 2013 et 2014, il a
participé au groupe web sémantique du GFII. Actuellement,
Nicolas Thouvenin pilote les travaux de plusieurs équipes
autour de 2 thématiques : le Text Data Mining et
l’interopérabilité des données.</description>
  <dc:date>2024-04-29T09:41+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/15966236</guid>
  <title>Système d&#39;Archivage Électronique Mutualisé</title>
  <link>https://cms.semweb.pro/talk/15966236</link>
  <description>Dans le cadre d&#39;une convention de partenariat entre le Conseil départemental de la Gironde, la Métropole de Bordeaux et la Ville de Bordeaux (les partenaires), en vue de construire un système d&#39;archivage électronique mutualisé, la construction d&#39;un module pivot de gestion des données de référence est apparu pertinente. Avec l&#39;aide de la société Logilab les partenaires du projet ont donc développé un référentiel de données capable de mettre à disposition des données liées aux autres modules du système ce qui permettra à terme d&#39;envisager la réalisation d&#39;un entrepôt de métadonnées et de fournir des services de recherche et de consultation. Cet outil permet notamment de relier des vocabulaires contrôlés, des descriptions d&#39;organisation et de notices d&#39;autorités et des modèles d&#39;unités d&#39;archives et de profils encadrant les modalités de versement de celles-ci en réutilisant des entités existantes dans des ontologies largement utilisées.

Les partenaires du projet ont construit ce projet en intégrant les principes de la gestion de projet agile, les concepts du web de données et les principes d&#39;ouverture et de ré-utilisabilité.

Cette présentation sera l&#39;occasion de présenter principalement les aspects fonctionnels de ce référentiel, son intégration dans les démarches en cours des autres acteurs du domaine culturel et administratif et l&#39;importance de l&#39;aspect Open-source de celui-ci. Si cela parait pertinent, on pourra également présenter l&#39;organisation agile mise en place.


#### Auteurs

**Pascal Romain**

Depuis janvier 2014, Pascal anime des équipes de chefs de
projets utilisateurs et des prestataires de services en
développement logiciel pour le Département de la
Gironde.

En tant qu&#39;ingénieur documentaire, il a réalisé le lien
entre les métiers et le numérique dans le cadre de projets
de gestion de données et de documents.

Chez Wordspace, en tant que responsable développement,
Pascal a travaillé sur le développement des applications web
en php.</description>
  <dc:date>2024-05-02T12:22+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/15966279</guid>
  <title>Retour d’expérience Application Web sémantique concernant les manuscrits médiévaux, les incunables et leurs anciens possesseurs et textes divers</title>
  <link>https://cms.semweb.pro/talk/15966279</link>
  <description>Début 2017, le portail Biblissima donnera un accès unifié
à 40 bases de données via une application Web sémantique,
dont un premier prototype a été réalisé au printemps 2015,
initialement, autour de deux bases.
 
L’objectif de cette présentation est de faire part de
l’ensemble des travaux menés par l’équipe, dont les
difficultés rencontrées lors de cette élaboration et les
résultats définitifs retenus à partir de différents
exemples, comme, notamment,

* le point d’entrée “Textes”, qui liste l’ensemble des
oeuvres, différentes versions textuelles d’une même
oeuvre, les intervenants et aussi les livres, qui
portent cette version,

* les expériences avec notre format pivot XML et la
publication de données en RDF et 3/ le traitement des
données contradictoires.

	  
Une démonstration montrera le travail fait depuis l’année
dernière à partir d’exemples concrets à savoir :

* Des pages Web regroupant toutes les informations
disponibles et provenant de plusieurs bases sur un 
manuscrit ainsi un manuscrit, qui est listé et présent
dans un catalogue de vente ou d’inventaire, identifié
par un chercheur et mis en relation avec autres données
des partenaires Biblissima et du LoD pour compléter et
enrichir au maximum la fiche de ce manuscrit.

* Des visualisations, notamment une carte géographique
où se trouvent les établissements de conservation des
incunables et manuscrits médiévaux en France et ailleurs
et une carte des lieux de fabrication ou d’édition des
manuscrits et incunables issus de bases de données
Biblissima.

* Des pages Web consacrées aux anciennes collections,
proposant à l’utilisateur la liste des livres possédés
et la numérisation de la notice du catalogue de vente ou
de l’inventaire.

	

**Stefanie Gehrke**

Stefanie travaille depuis 2013 comme coordinatrice données
de l&#39;Équipex Biblissima au Campus Condorcet. De 2008 à 2012
elle a travaillé pour des différents projets à Herzog Augst
Bibliothek à Wolfenbüttel en Allemagne. Pour le projet
Europeana Regia, traitant des manuscrits numérisés et
provenant de trois collections importantes du Moyen Âge et de
la Renaissance, elle était responsable du &quot;WP3 metadata&quot; et a
assuré la livraison du set de données du projet en RDF (selon
les spécifications du Europeana Data Model) à Europeana.

**Pool Biblissima**

L&#39;équipe est formée de six spécialistes de données et web,
Kévin Bois (développeur Front-End), Pauline Charbonnier
(équipe metadonnées), Eduard Frunzeanu (expert autorités),
Stefanie Gehrke (coordinatrice données), Elizabeth MacDonald
(coordinatrice projet équipex), Marie Muffat (experte fonctionnelle)
et Régis Robineau (coordinateur web)&quot;</description>
  <dc:date>2024-05-02T12:29+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/15997560</guid>
  <title>State of the Semantic Web activity at W3C</title>
  <link>https://cms.semweb.pro/talk/15997560</link>
  <description>In this third talk at SemWebPro in as many years, Phil
Archer will describe the state of current activities at W3C
related to the Semantic Web, such as Permissions and
Obligations Expression, SHACL, Spatial Data on the Web Best
Practices, SoLID and more, and look ahead to possible future
standardisation work. For example, a current hot topic is
how W3C can be better at supporting the development and
management of vocabularies. What can we learn from the
success of schema.org?


**Phil Archer**

Phil Archer is the Data Strategist at W3C, the industry
standards body for the World Wide Web, coordinating W3C&#39;s
work in the Semantic Web and related technologies. He is
most closely involved in the Data on the Web Best Practices,
Permissions and Obligations Expression and Spatial Data on
the Web Working Groups. His key themes are interoperability
through common terminology and URI persistence.

As well as work at the W3C, his career has encompassed
broadcasting, teaching, linked data publishing, copy
writing, and, perhaps incongruously, countryside
conservation. The common thread throughout has been a knack
for communication, particularly communicating complex
technical ideas to a more general audience.
	  
[Support de la présentation](https://www.w3.org/2016/Talks/1121_phila_semwebpro/)</description>
  <dc:date>2024-05-02T12:33+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/15997586</guid>
  <title>Technologies sémantiques pour l’apprentissage de la botanique en mobilité</title>
  <link>https://cms.semweb.pro/talk/15997586</link>
  <description>&lt;p&gt;Le projet ANR ReVeRIES (Reconnaissance de Végétaux Récréative,
Interactive et Educative sur Smartphone), lancé en février 2016,
vise à faciliter sur l’aide numérique à l’apprentissage de la
botanique en situation réelle, c’est à dire dans la nature, ou
les utilisateurs ne peuvent utiliser qu’un smartphone.&lt;/p&gt;
&lt;p&gt;Savoir identifier les espèces végétales est un aspect fondamental
de l&#39;apprentissage botanique. Nous proposons une solution technique 
sous forme d’une web application mobile), basée sur une méthode
d’identification classiques en botanique : la clef d’identification.
Il s’agit pour l’utilisateur de répondre à des questions successives
sur la plante à identifier, (ex. la plante a-t-elle des fleurs, les
fournies par l’utilisateur permettent de réduire l’ensemble des espèces
possibles, pour finalement isoler une réponse unique, correspondant à
l’espèce que l’utilisateur souhaite identifier.&lt;/p&gt;
&lt;p&gt;Les solutions existantes pour l’assistance à l’identification sont
fondées sur la construction manuelle de clés d’identifications.
La spécificité de notre solution est l’utilisation de technologies
sémantiques pour assister la création et la mise à jour automatique
d’une clé d’identification.&lt;/p&gt;
&lt;p&gt;En particulier, nous proposons une ontologie RDF-S décrivant les concepts
botaniques principaux (famille, genre, espèce, organe, etc.), et une base de
connaissances d’espèces (restreinte ici aux arbres typiques du territoire de 
la France Métropolitaine).&lt;/p&gt;
&lt;p&gt;Les interactions avec l’utilisateur (questions/réponses) peuvent alors être
exprimées sous forme de contraintes (ex. sous forme de requêtes SPARQL),
pouvant directement être appliquées à la base de connaissance pour diminuer
le nombre de candidats (espèces) possibles.&lt;/p&gt;
&lt;p&gt;Par ailleurs, l’ajout de règles sémantiques (ex. une espèce possède au plus
une famille), permet de réaliser automatiquement des inférences diminuant le
nombre de solutions possibles : si la famille a été identifiée, alors les espèces
des autres familles ne peuvent pas être des solutions. Lors de la proposition
d’une solution, l’utilisateur a accès à la suite d&#39;inférences réalisées
menant à cette solution, ce qui offre une meilleure compréhension et favorise
l’apprentissage.&lt;/p&gt;
&lt;p&gt;Enfin, cette solution offre la possibilité d’étendre facilement la base de
connaissance avec de nouvelles espèces (il suffit d’ajouter leurs descriptions
dans la base de connaissances).&lt;/p&gt;
&lt;p&gt;Il est à noter que les identifications réalisées par les utilisateurs seront
capitalisées dans une approche citizen science. Ainsi ces observations pourront
servir à des botanistes dans l’étude des variations de répartitions des
espèces par exemple (la position de la plante observée étant relevée par le GPS
de l’utilisateur).&lt;/p&gt;
&lt;h3&gt;Biographie&lt;/h3&gt;
&lt;p&gt;Pierre-Yves Gicquel
Pierre-Yves Gicquel est actuellement post-doctorant à l’université du Maine.
Le projet de recherche est centré sur l&#39;apprentissage de la botanique et il
s&#39;intéresse sur le plan scientifique aux mesures de similarités/distances
appliquées aux concepts d&#39;une ontologie ou d&#39;une base de connaissance.&lt;/p&gt;
&lt;p&gt;Pierre-Yves Gicquel a réalisé sa thèse en partie sur cette thématique
(dans le cadre d&#39;application d&#39;une visite de musée) : si on considère un
corpus de documents annotés sémantiquement, parcouru par un utilisateur,
il est naturel de proposer des suggestions en fonctions des liens entre
documents (lesannotations sémantique).
La notion de distance généralise cette question et permet une plus grande
finesse dans le calcul. Il me semble que bien que la notion de distance
soit purement numérique, cela pourrait s&#39;avérer très utile dans le cadre du web
sémantique.&lt;/p&gt;
&lt;p&gt;Il est contributeur sur OpenLaw et généralement ouvert aux applications sémantiques
présentant un intérêt immédiatement visible pour les non spécialistes.&lt;/p&gt;
&lt;p&gt;Visitez &lt;a href=&quot;github.com/gick&quot;&gt;son profil&lt;/a&gt; Github, &lt;a href=&quot;https://www.linkedin.com/in/pierre-yves-gicquel-27b70934?trk=nav_responsive_tab_profile&quot;&gt;Linkedin&lt;/a&gt;
ainsi que &lt;a href=&quot;https://www.researchgate.net/profile/Pierre_Yves_Gicquel&quot;&gt;ResearchGate&lt;/a&gt;.&lt;/p&gt;</description>
  <dc:date>2024-04-22T13:39+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/15997600</guid>
  <title>Le Web Sémantique au service de la cuisine numérique de demain</title>
  <link>https://cms.semweb.pro/talk/15997600</link>
  <description>Le programme NosRecettes (2013-2016) du projet Open Food
System1 (OFS) a pour ambition d’offrir, grâce à une
plate-forme numérique, une panoplie de services pour mieux
assister les cuisiniers amateurs. Les recettes désormais
digitales peuvent devenir un des vecteurs les plus efficaces
pour accélérer la démocratisation des usages numériques dans
le quotidien domestique.
         
Nos Recettes vise donc à développer des solutions complètes
innovantes, à base de Web Sémantique, qui seront la base des
expériences utilisateurs dans la cuisine de demain :

* la structuration de données de recettes numériques sur
un format de données universel riche ;

* la proposition de recettes et de menus grâce à
un moteur de recommandation basé sur des profils
utilisateurs individualisés ;

* la communication, avec des appareils électroménagers
automatisés qui sauront comprendre ces recettes, les
réussir et les reproduire simplement ;

* une communauté d’amateurs de cuisine de dimension
internationale.

Pour répondre à ces axes, nous avons développé une chaîne
sémantique pour l’enrichissement des recettes
numériques. Cette chaîne intègre trois outils : Luxid de
Temis pour l’extraction d’information, GraphDB de OntoText
pour le raisonnement et le stockage en RDF des recettes
enrichies et enfin le Content Augmentation Manager de
Mondeca pour orchestrer chacune des étapes, filtrer et
désambiguïser les informations extraites et optimiser les
raisonnements à réaliser en fonction des scénarios du
programme : calcul d’information nutritionnelle,
identification de recettes génériques vs recettes variantes,
identification de la saisonnalité d’une recette,
identification de la complétude d’une recette, structuration
fine des instructions de la recette pour identifier des
adaptations possibles entre matériels, amélioration des
résultats du moteur de recommandation de recettes.
		
Pour rendre possible chacun de ces scénarios, tous les
composants de la chaîne sémantique reposent essentiellement
sur une ressource termino-ontologique de la cuisine composée
de 6 modules interdépendants (aliments, nutrition,
matériels, unité, préparations et cuisine). En effet, elle
permet de générer les lexiques utilisés par l’outil
d’extraction linguistique pour l’enrichissement des recettes
numériques. Mais surtout la définition de nombreuses classes
construites permet de classer automatiquement les recettes
enrichies tout en permettant l’inférence de nouvelles
connaissances sur ces recettes. Un véritable challenge a été
relevé pour pouvoir concilier représentation de l’ontologie
en OWL2 DL, raisonnements dans le fragment OWL2 QL proposé
par GraphDB et performance de l’ensemble de la chaine
sémantique pour que les temps de traitement restent
acceptables. Ce programme illustre les limites actuelles
pour l’implémentation de raisonnements poussés, sur une
ontologie conséquente, dans un environnement à visée
hautement industrielle.

#### Autrices

**Florence Amardeilh** est responsable du département R&amp;amp;D de
Mondeca depuis 2007, travaillant dans les domaines de
l’acquisition des connaissances et du Web Sémantique
depuis 2002. Ingénieur de Recherche en Systèmes
d’information et Gestion des Connaissances en 2001, elle a
ensuite réalisé une thèse CIFRE chez Mondeca en
partenariat avec l’Université Paris 10. La thèse a eu pour
objectif de réunir et de combiner les méthodes et outils
du Traitement Automatique du Langage avec ceux du Web
Sémantique afin de créer des applications pour le
peuplement d’ontologies et l’annotation sémantique. 
Florence participe, en collaboration avec des
partenaires industriels et universitaires, au montage, au
pilotage et à la réalisation de nombreux projets de
recherche européens (IST FP5 - MOSES, IST-FP6 – TAO,
IST-FP7 Virtuoso, IST-FP7 SeaBilla) et français (ANR
Eiffel, ANR Tecsan VigiTermes, ANR Tecsan InterSTIS, RNTL
TerraNumerica, FUI SAMAR, FUI LegiLocal, ANR CSOSG SAIMSI,
ANR TecSan TerSan, FUI FIORA, PSPC Open Food System),
permettant à Mondeca d&#39;être à la pointe de l&#39;innovation
des méthodes et outils existants en Web Sémantique.</description>
  <dc:date>2024-05-02T12:47+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/15997624</guid>
  <title>Le cadriciel Semantic_forms: vers le SI Sémantique</title>
  <link>https://cms.semweb.pro/talk/15997624</link>
  <description>#### Le cadriciel Semantic_forms: vers le SI Sémantique

Au départ, il y avait ce constat : il n&#39;a pas de solution
Open Source simple pour visualiser et éditer des données RDF
en s&#39;appuyant sur une base SPARQL, et sur les ontologies, de
manière collaborative. On est parti d&#39;un générateur de
formulaire robuste, générique, et en temps réel. Puis on a
élargi les fonctionnalités pour proposer un framework Web
(cadriciel disent nos amis Quebécois) qui vise à être aussi
simple et universel que Ruby on Rails, Django, Symphony,
etc. On a aussi posé des jalons pour une console
d&#39;administration SPARQL ( à la PHPMyAdmin ). Au passage on
élargira le propos sur le Système d&#39;Information avec les
avantages du Sémantique, et l&#39;ERP (Progiciel de Gestion
Intégrée) sémantique.
        
**Cas d&#39;utilisation**

* Semantic_forms est fonctionnel en sortant de la
boîte, une fois qu&#39;on a dézippé le logiciel, ou qu&#39;on
l&#39;a construit à partir des sources. Pas besoin
d&#39;installer séparément une base de données ou d&#39;autres
composants. Vous pouvez naviguer dans vos données RDF
(Turtle, JSON-LD) chargées dans la base locale Jena
TDB aussi facilement que dans les profils FOAF sur
Internet, ou mélanger les deux. Semantic_forms
ressemble aux pages de DBPedia, où en plus on peut
modifier tous les champs, et charger n&#39;importe quelles
données du LOD.

* Si on n&#39;est pas content du formulaire créé
automatiquement, on peut écrire une spécifications de
formulaire. On peut aussi composer des pages Web
statiques qui appellent via JavaScript un ou plusieurs
services Web de formulaires.
		
**La technique**
	
En ce qui concerne la mise en œuvre, semantic_forms
tire parti de Jena TDB (en embarqué), de Play!
Framework, du langage Scala et de la librairie
Banana-RDF. Grâce à Banana-RDF, on peut peut
configurer semantic_forms pour utiliser d&#39;autres bases
de données SPARQL, en embarqué (via API) comme
BlazeGraph ou Sesame, ou n&#39;importe quelle base via
HTTP.
		
**Les composants**
		
		
* librairie de génération de formulaires (API Java
et Scala)
* application Web générique avec Play! framework

* cache SPARQL, utilise un graphe nommé par source
de source de données, plus un par utilisateur

* le cache, via LDP, peut être utilisé comme un
composant d&#39;infrastructure qui fédère des données de
différentes provenances
	
* divers algorithmes: dédoublonnage, restructuration
d&#39;ontologie

* composant IHM de création de liens vers des URI
dbPedia</description>
  <dc:date>2024-05-02T12:52+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/15997642</guid>
  <title>Le web au premier plan</title>
  <link>https://cms.semweb.pro/talk/15997642</link>
  <description>#### Le web au premier plan

La vision originale du Web sémantique était profondément enracinée dans le World Wide Web.
Cependant, en cours de route, nous nous sommes orientés vers des sujets tels que l&#39;analyse des données. 
Et comment le web sémantique a tenu bon contre le Big Data et la Machine Learning, qui ont sans doute
été les sujets le plus mis en avant ces derniers temps ? 

Au cours de sa présentation, Ruben va expliquer pourquoi la partie &quot;web&quot; du &quot;web sémantique&quot;
est si importante. Mais aussi pourquoi nous devons penser de manière plus décentralisée. 
Si nous souhaitons que le web soit un succès auprès de vrais utilisateurs, il doit fonctionner
sur une échelle web.

**Ruben Verborgh**

Chercheur en hypermédia sémantique à l&#39;Université de Gand
- iMinds, en Belgique, où il a obtenu son doctorat en
informatique en 2014, Ruben explore le lien entre les
technologies du Web sémantique et les propriétés
architecturales du Web, avec comme but la conception de
clients plus intelligents. Il est passionné par le Linked
Data, REST/hypermédia, les API Web et les technologies
connexes.

[Support de la présentation](http://slides.verborgh.org/SemWeb.Pro-2016/#)</description>
  <dc:date>2024-05-02T12:55+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/15997659</guid>
  <title>Le raisonnement embarqué côté client : et si c’était facile ?</title>
  <link>https://cms.semweb.pro/talk/15997659</link>
  <description>À l’heure où le Web est devenu une plateforme qui permet
d’accéder à ses applications, ses réseaux sociaux et ses
objets connectés, les technologies du Web Sémantique peinent
encore à trouver un champ applicatif et sont perçues comme
lourdes et peu dynamiques. Dans les applications Web, elles
sont actuellement utilisées soit en back office côté serveur,
soit au mieux pour déréférencer des identifiants de ressources
ou comme dispositifs de stockage.  Pourtant, du raisonnement
peut être utilisé sur des données stockées localement côté
client. Utilisé conjointement avec les nouvelles APIs HTML5,
le raisonnement côté client peut être embarqué dans une
application web dynamique, permettre des performances tout à
fait acceptables, et même vous faire économiser de la
puissance de calcul côté serveur et de la bande passante
réseau.
        
Nous présenterons un tour d’horizon des technologies qui
permettent de déployer du raisonnement côté client, sans
perturber le fonctionnement d’une application. En
particulier, nous présenterons le moteur d’inférences Hybrid
Location-Agnostic Reasoner (HyLAR) fondé sur le profil de
raisonnement OWL 2 RL qui tire à la fois parti des avancées
en raisonnement incrémental et des APIs asynchrones côté
client. HyLAR fournit par ailleurs un SPARQL endpoint
performant pour des données applicatives locales. Enfin,
nous présenterons un exemple de framework permettant
d’exécuter le moteur d’inférences HyLAR indifféremment côté
serveur ou côté client, en s’adaptant aux performances et
aux ressources (batterie, connexion réseau) du client. HyLAR
est disponible en tant que module NPM sous licence libre
MIT.


**Lionel Médini**

Lionel Médini est enseignant-chercheur au laboratoire
LIRIS de Lyon. Il s’intéresse à la fois aux technologies du
Web Sémantique en recherche et du Web avancé et mobile en
enseignement. Le travail présenté est à la jonction de ces
deux disciplines et a été développé dans le cadre de la
thèse de Mehdi Terdjimi qu’il co-encadre autour du Web des
objets.

**Mehdi Terdjimi**

Mehdi Terdjimi est doctorant au laboratoire LIRIS de Lyon. Sa thèse s&#39;inscrit
dans le cadre du projet ANR ASAWoO et concerne l&#39;adaptation contextuelle pour 
le Web des Objets. Ses intérêts se portent sur les domaines du Web sémantique,
du raisonnement ainsi que sur les technologies du Web en général.</description>
  <dc:date>2024-05-02T12:58+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/15997679</guid>
  <title>Présentation du projet ANR OpenSensingCity: travaux réalisés et à venir</title>
  <link>https://cms.semweb.pro/talk/15997679</link>
  <description>#### Présentation du projet ANR OpenSensingCity : travaux
réalisés et à venir

        
Le projet OpenSensingCity financé par l’ANR vise à
faciliter l’utilisation des données ouvertes dans le cadre des
territoires urbains intelligents.  Dans ce cadre, nous
supposons que les données de capteurs déployés pour mieux
gérer la ville pourront être mis à disposition sur des
portails open data.  L&#39;ouverture de ces flux apporte des
opportunités d&#39;innovation en combinant les avantages usuels de
l&#39;ouverture des données à leur mise à jour en temps réel.  Les
données dynamiques et les flux permettent d&#39;envisager le
développement de nouveaux services au-delà de l&#39;utilisation
classique des données ouvertes pour la conception
d&#39;historiques ou plus généralement d&#39;analyse a posteriori. Si
la publication des données issues des capteurs au travers des
plateformes open data est une première étape, il est
nécessaire à présent de proposer des solutions pour simplifier
leur utilisation. En effet, ces données sont en pratique
difficiles à comprendre, à trouver et, en fin de compte, à
exploiter. Ceci est d&#39;autant plus vrai quand les données sont
issues de capteurs car les contraintes de capacité et de
communication obligent à minimiser l&#39;information
transmise. Par conséquent et afin de permettre le
développement d&#39;un écosystème de services urbains ouverts et
intelligents, nous voulons fournir (1) des solutions
technologiques pour aider à tirer profit de données ouvertes
de capteurs pour les développeurs d&#39;applications urbaines, et
(2) des recommandations pour les acteurs de cet écosystème en
analysant les stratégies d&#39;acteurs, en définissant des
scénarios d&#39;usage et des terminologies.  Pour atteindre ce
résultat, nous combinons une analyse sociale des attentes, des
exigences et des pratiques, avec une expertise technologique
et technique en données liées et ingénierie des
connaissances. La composante sociale doit assurer une
meilleure compréhension des besoins des catégories
d&#39;utilisateurs de données ouvertes. La composante
technologique se fonde sur des technologies du Web sémantique
et des techniques de traitement de flux de données. Les
résultats attendus sont l&#39;enrichissement et la publication sur
une plateforme ouverte, en tenant compte du nouveau paradigme
des données liées, des flux de données et du
raisonnement. Ceci sera faciliter par l’utilisation ou la
construction d’ontologies des villes intelligentes, de même
qu&#39;un formalisme pour l&#39;interrogation et la combinaison de
flux. En outre, nous définirons des fonctionnalités de
recherche et de navigation que nous mettrons en œuvre selon
les attentes et besoins identifiés. Enfin, ces outils
démontreront leur utilité dans une application qui aidera les
conducteurs de véhicules à mieux trouver des places de
stationnement.

####  Auteurs 
**Antoine Zimmermann** est enseignant chercheur à l&#39;école des
mines de Saint-Étienne et coordonne le projet
OpenSensingCity démarré en avril 2015 en partenariat avec
l&#39;équipe de recherche Elico (Université de Lyon) et les
entreprises Antidot et HiKoB. Ses activités de recherche
sont centrées sur le Web sémantique, la représentation de
connaissances et l&#39;interrogation de données en exploitant de
multiples sources et de multiples contextes de
l&#39;information.
	  
[N&#39;hésitez pas à consulter son CV.](http://www.emse.fr/~zimmermann/CV.html)</description>
  <dc:date>2024-05-02T13:02+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/15997688</guid>
  <title>Présentation du projet WAVES</title>
  <link>https://cms.semweb.pro/talk/15997688</link>
  <description>#### Présentation du projet WAVES
        
Le projet WAVES vise à explorer de nouvelles voies pour
la fouille de flux massifs de données en temps réel via
l’expérimentation d’une approche algorithmique en
rupture. Au sein d’un environnement distribué sous forte
contrainte de vélocité, sont expérimentées des théories
avancées du web sematique : collecte, stockage,
sémantisation, filtrage sémantique, qualification,
interconnexion, résumé, raisonnement, rétroaction et
visualisation.

Deux verrous importants et complexes – le raisonnement
dans un contexte de streaming et la génération de résumé –
doivent être levés pour atteindre l’objectif de création
d’une plateforme de traitement de données streaming
sémantisées au terme du projet.

Le premier verrou demande des travaux de R&amp;amp;D
approfondis sur les méthodes de raisonnement en prenant
en compte les caractéristiques de gestion des
contraintes temporelles (ordonnancement des données), de
l&#39;accès efficace à différentes sources de données
(captation, résumé), d&#39;intégrer la problématique de la
requête dans le raisonnement et sur de nouvelles
heuristiques pour l&#39;optimisation des inférences.

* Le second verrou consiste à exploiter les données
captées et produites par l&#39;inférence dans l&#39;objectif de
les résumer. Cela impose de savoir traiter simultanément
plusieurs flux, qu’ils soient statiques ou dynamiques et
contiennent des données de volatilités différentes
(adaptation de la fenêtre temporelle).

WAVES est une solution conçue pour répondre à de nombreux
problèmes dans différents métiers. Dans le cadre du
projet, un cas d’usage est réalisé : il concerne la
détection de fuites d’eau dans les réseaux de distribution
d’eau potable des cités. Il a été choisi en raison de la
valorisation significative et rapide de ses résultats pour
tous les partenaires. Pour illustrer la capacité de la
plateforme WAVES à adresser des domaines d’une grande
variété, nous pouvons en suggérer bien d’autres pour leur
réalisme dans les contextes écologique, smart-city,
société. Leur variété vient aussi à l’appui de notre
conviction que les différents membres du consortium
pourront tirer profit des travaux réalisés dans un projet
aux dimensions génériques évidentes.


**Badre Belabbess**
Étudiant en doctorat au sein du laboratoire R&amp;amp;D de Atos
France. De formation scientifique, sa thèse s’articule
autour de la mise en place du socle technique de la
plateforme Waves afin de créer une architecture
modulaire, robuste et sécurisée.</description>
  <dc:date>2024-05-02T13:08+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195357</guid>
  <title>La version 6 de ScoLOMFR et son ontologie</title>
  <link>https://cms.semweb.pro/talk/16195357</link>
  <description>&lt;p&gt;ScoLOMFR est le standard de description documentaire qui permet la mutualisation des ressources numériques, gratuites et payantes pour l&#39;enseignement scolaire. Issu d&#39;un schéma de données reposant sur la norme LOMFR (2010), il est composé d’une soixantaine de champs organisés en 9 éléments et d&#39;un ensemble de vocabulaires communs aux différents acteurs de l&#39;enseignement scolaire.&lt;/p&gt;
&lt;p&gt;Créé et est maintenu par la DNÉ et Réseau Canopé, ce projet est géré en co-pilotage stratégique entre les deux acteurs. Le pilotage opérationnel est assuré par Réseau Canopé grâce au travail combiné d’une équipe, de terminologues et d’informaticiens, et d’un prestataire expert Thomas Francart (Sparna)&lt;/p&gt;
&lt;p&gt;Le Ministère de l’Éducation Nationale, de la Jeunesse et des Sports préconise ScoLOMFR auprès des producteurs de ressources numériques scolaires, pour assurer l’interopérabilité entre leurs données. Sejer, KNÉ, mais aussi le GAR, les projets « Banques de ressources numériques », « EDUbases », « Eduthèque » ou encore « Etincel », pour ne citer qu’eux, l’utilisent. Le nouveau catalogue documentaire de Réseau Canopé, Syrtis, l’intègre également.&lt;/p&gt;
&lt;p&gt;Les vocabulaires de ScoLOMFR reprennent le plus fidèlement possible le contenu des programmes et intègrent les dernières réformes engagées par l’éducation nationale.&lt;/p&gt;
&lt;p&gt;Cette année, la publication de sa version 6 s’accompagne de l’ontologie ScoLOMFR. Cette dernière permet de déclarer les classes d’objets, les propriétés et les relations qui définissent et lient les concepts entre eux. Ainsi présentée, l’organisation des données et des éléments de ScoLOMFR offre un ensemble structuré dans lequel chaque concept est un élément caractérisé et identifiable au sein d’un tout. Il devient alors possible d’en déduire plus simplement des liens ou des relations plus spécifiques à une ou des recherches ou besoins particuliers.&lt;/p&gt;
&lt;h4&gt;Références&lt;/h4&gt;
&lt;p&gt;ScoLOMFR est disponible sur le site : &lt;a href=&quot;https://www.reseau-canope.fr/scolomfr/&quot;&gt;https://www.reseau-canope.fr/scolomfr/&lt;/a&gt;.&lt;/p&gt;
&lt;p&gt;For english speakers read this &lt;a href=&quot;https://blog.sparna.fr/2018/09/25/thesaurus-versions-of-scolomfr-skos/&quot;&gt;blog post&lt;/a&gt;&lt;/p&gt;</description>
  <dc:date>2025-04-07T09:58+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/14254393</guid>
  <title>Applied Category Theory for industry</title>
  <link>https://cms.semweb.pro/talk/14254393</link>
  <description>&lt;p&gt;A workshop on Applied Category Theory for industry: methodology, tools and use cases&lt;/p&gt;
&lt;p&gt;New ways to integrate models, data and tools!&lt;/p&gt;
&lt;p&gt;In association with the SemWeb.Pro 2020 conference, we propose to organize a workshop on Applied Category Theory as a new and robust way to integrate models data in industry.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Friday November 27th 16:30pm 18:30pm Europe/Paris Timezone&lt;/strong&gt;&lt;/p&gt;</description>
  <dc:date>2024-04-22T13:40+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195423</guid>
  <title>Category Theory for Semantic Data Interoperability</title>
  <link>https://cms.semweb.pro/talk/16195423</link>
  <description>&lt;p&gt;Every engineering organization struggles to exchange and consolidate data
reliably across their many data sources. Attempting to build integrations
between all relevant systems is impractical with current mainstream
practices, because of the quadratic relationship between applications and
the number of integrations between them. To avoid the exploding cost of
scaling ad-hoc integrations, organizations may attempt to standardize the
application semantics. This approach hasn’t worked in practice because it&#39;s
impractical to get many people from diverse domains to agree on a single
perspective, and nuanced domain-specific meaning is always sacrificed.&lt;/p&gt;
&lt;p&gt;Category Theory is a mathematical language for encoding and computing
semantic structures across contexts, and has been used by mathematicians
and scientists to formally communicate meaning across domains. Recent
developments out of MIT have worked out how to apply the approach to data
schemas and are leading to a paradigm shift in semantic data
interoperability. There are several benefits, but two key benefits are
compositionality and machine verification. Integrations can be added
together and checked for integrity, which means that a quadratic number of
integrations can be inferred from a linear input with mathematical
guarantees that data won’t be corrupted. A third benefit is that the
approach is agnostic to any specific data structure and can interoperate
across all of them (SQL, XML, Json, Graph, RDF, etc). In this talk we will
outline a classic challenge facing industrial engineering and how
approaches built from Category Theory by Conexus can offer a new paradigm
of solutions.&lt;/p&gt;
&lt;h4&gt;Références&lt;/h4&gt;
&lt;p&gt;Presentation Video (Similar to proposed):
&lt;a href=&quot;https://conexus.docsend.com/view/9kt93xqcx2kugdsa&quot;&gt;https://conexus.docsend.com/view/9kt93xqcx2kugdsa&lt;/a&gt;
Password: datamesh&lt;/p&gt;
&lt;p&gt;Presentation Slides (Similar to proposed):
&lt;a href=&quot;https://conexus.docsend.com/view/2stvuqt4xjpb3bbx&quot;&gt;https://conexus.docsend.com/view/2stvuqt4xjpb3bbx&lt;/a&gt;
Password: datamesh&lt;/p&gt;
&lt;p&gt;Research Papers:
&lt;a href=&quot;https://conexus.com/resources/papers/&quot;&gt;https://conexus.com/resources/papers/&lt;/a&gt;&lt;/p&gt;
&lt;h4&gt;Auteurs/Autrices&lt;/h4&gt;
&lt;p&gt;Ryan Bio:
Ryan Wisnesky  obtained B.S. and M.S. degrees in
mathematics and computer science from Stanford University and a Ph.D. in
computer science from Harvard University, where he studied the design and
implementation of provably correct  software
systems . Previously, he was a postdoctoral
associate in the MIT department of mathematics, where he developed the CQL
 query language based on category theory. He
currently leads open-source and commercial development of CQL as CTO of Conexus
AI . He maintains an active collaboration with the
information-integration department of IBM Research, where he contributed to
the Clio, Orchid , and HIL projects.&lt;/p&gt;
&lt;p&gt;Kenny Bio:
Kenny is responsible for ensuring that new Conexus products developed from
Categorical Mathematics align with market needs. He has a history of
founding, building and investing in technology startups with an emphasis on
developing product-market fit. In 2014 he was the lead architect and
designer of Vandrico&#39;s Wearables Database, a knowledge graph of emerging
wearable technology at the time. His professional interests revolve around
understanding patterns of human behavior and motivation, and building
products that propagate knowledge.&lt;/p&gt;</description>
  <dc:date>2024-04-22T13:00+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16236748</guid>
  <title>Valorisation des graphes de connaissances: cas de TerMef</title>
  <link>https://cms.semweb.pro/talk/16236748</link>
  <description>TerMef est le gestionnaire des référentiels terminologiques des Ministères
économiques et financiers (Mef) représenté sous forme de graphe de
connaissances. Ce portail est généré à partir des référentiels du domaine de
l’économie, de la finance et de l’industrie au modèle RDF. Les terminologies
sont riches (définitions de concepts, relations entre concepts, graphes, etc.)
et décrivent les savoirs innovants dans les domaines précités. Les concepts
sont représentés selon le modèle SKOS, un standard du W3C qui donne aussi la
possibilité de rajouter des collections, des groupes et des relations entre les
concepts.  A ce jour, le portail contient 21 domaines, dont les plus
représentations sont dans l’ordre : les finances publics (5719), l’économie
(1249 éléments), l’informa- tique (732 éléments), la biologie (673 éléments) et
la chimie et matériaux (669 éléments). Il est possible de faire des recherches
sur les concepts, de naviguer sous forme hiérarchique, de visualiser le graphe
des relations sur un concept et des possibilités d’export/partage des données.
Afin de valoriser davantage le contenu du portail, nous avons créé deux solu-
tions qui utilisent l’API des données RDF du portail TerMef. Ces deux solutions
sont packagés sous forme de plugin Microsoft Word ou module Drupal.  Les
fonctionnalités suivantes sont disponibles :
* Exposer et insérer les concepts référents en français dans de multiples do-
maines d’activité. TerMef recherche et affiche automatiquement* dans un volet
de tâches, par simple mise en surbrillance d’un terme dans un texte Word (en
français ou en anglais, dans sa forme développée ou abrégée, ou encore par son
sigle, acronyme ou synonyme), les concepts référencés dans les différents
vocabulaires présents dans la base.
* Les propriétés du concept retenu sont exposées dans une infoboîte.
* La citation est simplifiée : il suffit de sélectionner par mise en
surbrillance le contenu dans le volet TerMef puis de l’insérer en un clic dans
le texte ou en note de bas de page du document Word.
* Le graphe qui expose les relations du terme sélectionné est accessible au
clic sur le lien figurant sous l’intitulé « graphe », permettant ainsi une
navigation dans le domaine de connaissance du terme
* La vidéo démontrant l’usage du plugin Word https://youtu.be/iX7CF4mmIHU
* le portail TerMef https://terminologie.finances.gouv.fr

 
Auteurs/Autrices: 

Ghislain ATEMEZING est responsable recherche Développement de la société
MONDECA, éditeur de solutions sémantiques depuis 1999. 

Ghislain détient un Ph.D en informatique obtenu à Telecom ParisTech en avril
2015, et dispose d’une expérience de plus d’une dizaine d’années dans les
applications de l’ingénierie de connaissances, du Web sémantique Pour plus de
détails, consultez sa page web.</description>
  <dc:date>2024-04-22T12:17+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16236816</guid>
  <title>ATLANTIS : l’ontologie qui modélise les connaissances contenues dans les Instructions nautiques</title>
  <link>https://cms.semweb.pro/talk/16236816</link>
  <description>&lt;p&gt;Les Instructions nautiques sont une série d&#39;ouvrages produits et publiés par le
Service hydrographique et océanographique de la Marine (Shom) qui donnent aux
navigateurs les informations nécessaires pour naviguer près des côtes et
accéder aux ports. Elles sont utilisées par les navigateurs (civils ou
militaires, professionnels ou plaisanciers) en complément des cartes marines
papier ou électroniques pour planifier leur itinéraire de navigation. Elles
apportent des informations supplémentaires qui, pour des raisons de lisibilité,
ne sont pas affichées sur une carte marine, et contribuent donc à la sécurité
de la navigation maritime. Nous visons à structurer et à géoréférencer le
contenu des Instructions nautiques, qui aujourd’hui existe uniquement sous la
forme de texte en langage naturel, et puis à le stocker dans une base de
connaissances. À terme, cette base de connaissances servira à alimenter une
plateforme permettant aux utilisateurs des Instructions nautiques d’interroger
et de consulter plus efficacement le contenu des ouvrages, en lien avec les
informations présentes sur les cartes marines électroniques (ENCs – Electronic
navigational charts) et d’autres sources d’informations utiles : avis urgents
aux navigateurs, réglementation nautique, etc. L’utilisateur pourra, au lieu de
lire le texte intégral, accéder aux informations souhaitées en réalisant des
recherches par facettes et notamment par zone géographique. Une première étape
vers la création de cette base de connaissances consiste à se doter d’une
ontologie.  Nous proposons de présenter l&#39;ontologie ATLANTIS (coAsTaL mAritime
NavigaTion InstructionS) que nous avons développée pour modéliser les
connaissances contenues dans les Instructions nautiques. Celle-ci couvre quatre
domaines principaux :&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;les navires,&lt;/li&gt;
&lt;li&gt;les entités pérennes de l&#39;environnement maritime côtier et leurs relations spatiales,&lt;/li&gt;
&lt;li&gt;les indications de temporalité et les phénomènes météorologiques et océanographiques,&lt;/li&gt;
&lt;li&gt;les consignes de navigation.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Nous ferons également un retour d&#39;expériences sur la méthodologie suivie pour sa création (implication
des experts du domaine) et les adaptations que nous y avons apportées. Les
travaux en cours concernent l’extraction automatique des informations des
Instructions nautiques afin de peupler la base de connaissances et enrichir
l’ontologie. Une fois le modèle ontologique instancié, nous procéderons à&lt;/p&gt;
&lt;h4&gt;Auteurs/Autrices :&lt;/h4&gt;
&lt;p&gt;Helen est titulaire d’un Master mention Épistémologie, Histoire des Sciences et
des Techniques de l’Université de Bretagne Occidentale. Actuellement doctorante
de l&#39;Université Gustave Eiffel, elle réalise, au LASTIG (LAboratoire en
Sciences et Technologies de l&#39;Information Géographique pour la ville
intelligente et les territoires durables), une thèse co-financée par le Shom
(Service hydrographique et océanographique de la Marine) et l’IGN (Institut
national de l’information géographique et forestière). &lt;/p&gt;
&lt;p&gt;Ses travaux de recherche portent sur la création de bases de connaissances topographiques à partir de
sources hétérogènes.&lt;/p&gt;</description>
  <dc:date>2024-04-22T12:24+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16236823</guid>
  <title>VIDAL SemBot pour le bon usage des médicaments</title>
  <link>https://cms.semweb.pro/talk/16236823</link>
  <description>Vidal, bien connu pour son fameux dictionnaire des médicaments, s&#39;est
aujourd&#39;hui positionné comme leader concernant le développement de services
digitaux pour l&#39;information à destination du monde médical. Dans cette optique,
la conception de services pour répondre, par exemple, à des besoins de
recherche d&#39;information revêt un caractère d&#39;importance stratégique. Parmi ces
services, un prototype de chatbot a été conçu par les équipes Vidal, dans le
but d&#39;aider la mise à disposition des informations liées aux effets secondaires
des produits pharmaceutiques, informations importantes pour une prescription,
et une prise, en sécurité des médicaments.  Pour répondre à cet objectif, le
bot s’appuie sur des données stockées dans des graphes RDF (base de données
Vidal orientée graphe). Cette modélisation en graphe a été mise en place pour
décrire les concepts d’intérêt, le vocabulaire associé et leurs liens
sémantiques.  Les données d&#39;intérêt sont ainsi récupérées en utilisant l’un des
standards du web sémantique : le langage de requête SPARQL et sont communiquées
de façon pertinente et naturelle à l&#39;humain, en accord avec le déroulé de la
discussion. Concrètement, l&#39;utilisateur peut poser des questions sur plusieurs
formes de produit (médicament, substance...) et peut, soit demander la liste
exhaustive des effets indésirables, soit poser la question spécifique sur un
effet en particulier. Le bot est aussi capable de solliciter de l&#39;humain
l&#39;ensemble des précisions nécessaires pour lever la moindre ambiguïté
concernant la demande formulée initialement (médicaments avec des noms
proches...).  Nous nous proposons d&#39;en détailler les aspects fonctionnels
et techniques, de même que la modélisation et l’exploitation des données.
La présentation se terminera par une démonstration.

**Auteurs/Autrices**
* Romain Benassi, Data Scientist, PUBLICIS SAPIENT. Diplômé de l&#39;IMT Atlantique
et docteur Centrale-Supélec en mathématiques appliquées, j&#39;ai évolué pendant
près de 5 ans dans le domaine de l&#39;énergie, en particulier sur l&#39;analyse
statistique des consommations des foyers et la désagrégation des courbes de
charges électriques (NILM). J&#39;ai rejoint début 2020 Publicis Sapient où j&#39;ai
été amené, en tant que consultant Data Scientist auprès de plusieurs clients
dont principalement Vidal, à travailler sur les sujets du Deep Learning et du
NLP. Depuis 2021, je suis également formateur/enseignant à temps partiel sur
ces deux sujets, en particulier à l&#39;EPITA.

* Mehdi Embarek, Knowledge engineer, MK SOFT. Titulaire d’un doctorat en
informatique. Thèse effectuée au commissariat à l’énergie atomique (CEA).
Consultant en ingénierie de la connaissance, NLP et web sémantique depuis 2006.

* Suzanne Bento Pereira Responsable de la plateforme Data Science, VIDAL.
Responsable de la plateforme Data Science chez VIDAL, elle est titulaire d&#39;un
doctorat en informatique de l&#39;Université de Rouen. Experte en ingénierie de la
connaissance, NLP et IA dans le domaine de la santé.</description>
  <dc:date>2024-04-18T13:11+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16236830</guid>
  <title>De la théorie du modèle FRBRoo à la mise en pratique pour la valorisation des ressources d&#39;un établissement culturel</title>
  <link>https://cms.semweb.pro/talk/16236830</link>
  <description>PMB est un logiciel libre de gestion de bibliothèques et centres de
documentation. Depuis plusieurs années, PMB implémente un modèle FRBR
paramétrable sous une forme simplifiée par rapport à FRBRoo. Ce modèle est
néanmoins efficace pour des centres de documentation d’un domaine culturel qui
souhaitent modéliser leur domaine d’activité en agrégeant toutes les données
possibles dans une unique base.  Une fois paramétré, ce modèle permet une
exploration contextuelle et temporelle du domaine, et met en lumière les
relations entre les personnes, les influences ainsi que toutes les ressources
liées (photos, fonds documentaire, captations, presse, sites, …). 

Toutes ces informations spécifiques sont implémentées dans un modèle de données
relationnel classique.  Notre objectif désormais est de proposer une exposition
de ces données culturelles selon le modèle FRBRoo. Et l’enfer commence… Nous
avons développé une ontologie intermédiaire basée sur les entités de notre
logiciel pour transformer notre base de données relationnelle en graphe
sémantique, mais aussi les algorithmes de transformation.  Cette ontologie ne
reprend pas exactement la structure de la base de données mais plutôt les
données vues par l’utilisateur dans le logiciel.  À partir de ce premier
export, nous avons étudié comment passer automatiquement de notre modèle
paramétrable à un modèle FRBRoo avec l’idée de développer une ontologie de
transformation.  

A priori tout est transformable : le modèle FRBRoo est
universel, il permet de modéliser des points de vue très divers. Mais le modèle
FRBRoo est difficilement applicable en pratique sur des principes génériques
simples de modélisation.  En effet, si l’on tente de respecter la philosophie
fine du modèle, une donnée propre à un établissement tel que la Comédie
Française, comme le type de création d’une mise en scène, peut être transcrit
en trois ou quatre instances FRBRoo, voire plus !  Dans cette intervention,
nous vous présenterons :


la démarche que nous avons adoptée pour concilier
une description suffisamment détaillée conforme au modèle FRBRoo et une
transformation générique paramétrable décrite par une ontologie que nous avons
développée. Le but étant que cette transformation s’adapte facilement à tous
nos modèles FRBR personnalisés ; un exemple concret basé sur les données de
la bibliothèque-musée de la Comédie Française.


#### Auteurs/Autrices

Florent Tétart est Directeur de l’Innovation chez PMB Services.Fervent
défenseur du libre, il s&#39;implique dans de nombreux projets afin de favoriser la
valorisation et la transmission des connaissances en se basant sur des
solutions open source. Depuis 2015, il s&#39;intéresse de très près au projet de
transition bibliographique ayant pour objectif d&#39;améliorer l&#39;exposition des
données bibliographiques et d&#39;autorités dans le web de données. 

En 2016, il intègre le comité scientifique de Dorémus (DOnnées en REutilisation pour la
MUsique en fonction des USages). Depuis 2019, il enseigne au Centre d&#39;Études
Supérieures de la Renaissance (CESR) à Tours.</description>
  <dc:date>2024-04-22T12:26+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16236835</guid>
  <title>Les registres de la Comédie-Française sur le Web de données liées : de l&#39;hétérogénéité aux données RDF quantitatives</title>
  <link>https://cms.semweb.pro/talk/16236835</link>
  <description>Depuis que le théâtre de la Comédie-Française existe, c&#39;est-à-dire depuis 1680,
des registres sont produits par la troupe : ils recensent, entre autres, les
dépenses, les recettes et les feux (la distribution) des différentes
représentations. Parce qu&#39;ils permettent de se rendre compte du quotidien de la
troupe, ces documents sont très précieux pour mieux comprendre l&#39;organisation
de la vie théâtrale parisienne depuis le XVIIe siècle : ils constituent un
apport notable à l&#39;histoire du spectacle vivant.  Néanmoins, il n&#39;était jusqu&#39;à
présent pas possible de proposer une analyse quantitative de ces données, dans
la mesure où ces registres n&#39;étaient disponibles que dans un format papier,
celui de l&#39;archive telle qu&#39;elle est conservée à la Bilbiothèque-Musée de la
Comédie-Française. C&#39;est donc pour diffuser une source précieuse mais méconnue
et difficile d&#39;accès que le projet RCF (Registres de la Comédie-Française) est
né : numériser ces registres, les transcrire dans des bases de données et
promouvoir ces données pour en faciliter l&#39;exploitation sont les objectifs que
s&#39;est fixée l&#39;équipe de RCF.  Dans ce cadre, nous souhaitons présenter le
travail qui a été fait spécifiquement sur la base de données des dépenses. Il
s&#39;agira de rendre compte de la complexité du travail de transcription que nous
avons dû réaliser sur cette base, car les données à transcrire se sont révélées
particulièrement hétérogènes et, à certains égards, discontinues. Nous verrons
en quoi transcrire des données hétérogènes comporte une part de subjectivité
que les technologies du Web Sémantiques permettent, en partie, de pallier. Nous
verrons ensuite comment nous avons tiré parti de ces technologies pour
fusionner cette base de données de transcription des dépenses, nouvellement
créée, avec deux bases qui ont été générées il y a quelques années, celle des
recettes et celle des feux. Enfin, nous montrerons comment nous avons exploité
les technologies du Web Sémantique pour promouvoir la réutilisation de ces
données et contribuer, de ce fait, au Web de données liées dans le champ des
humanités numériques. Nous concluerons sur l&#39;intérêt que présente, en
complément d&#39;une approche quantitative, une approche qualitative des données
provenant de l&#39;expertise de spécialistes.
 
Références :

* https://cfregisters.org/ = site du projet
* https://flipbooks.cfregisters.org/ = les registres transcrits
* https://rcf-sparql.demo.logilab.fr/ = entreprôt SPARQL contenant les donnée
* https://upnd.pages.logilab.fr/rcf-ui-expense/ = application de visualisation des données des dépenses
* https://forge.extranet.logilab.fr/UPND/rcf-expense = entrepôt contenant le code de l&#39;application de
transcription des données des dépenses
* https://forge.extranet.logilab.fr/upnd/rcf-ui-expense = entrepôt contenant le code de l&#39;application de
visualisation des données des dépenses

Auteurs/Autrices
* Charline Granger  - Charline est docteure en études
théâtrales de l&#39;Université Paris Nanterre et actuellement attachée temporaire
de recherche et d&#39;enseignement à l&#39;Ecole Normale Supérieure de Lyon. Ses
travaux portent sur l&#39;histoire du théâtre et de sa réception, ainsi que sur le
rapport entre archives et humanités numériques.

* Fabien Amarger  - Fabien est un docteur ingénieur en
informatique, spécialiste des technologies du Web Sémantique. Travaillant à
Logilab depuis maintenant 4 ans, il est particulièrement investi dans les
sujets qui concernent la recherche, notamment en Web Sémantique.</description>
  <dc:date>2024-04-18T13:14+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16236841</guid>
  <title>Pas à pas vers le Graphe Culture</title>
  <link>https://cms.semweb.pro/talk/16236841</link>
  <description>Le ministère de la Culture s’est engagé depuis 2014 dans une démarche de
sémantisation des données cultuelles en publiant sa première feuille de route
stratégique « Métadonnées culturelles et transition Web 3.0 ». L&#39;ambition à terme est de constituer un graphe de connaissances de la Culture. Ce Graphe Culture se construit projet par projet, brique par brique. Les actions du ministère visent à accompagner la sémantisation des données des établissements culturels mais aussi le développement d&#39;outils essentiels. Dbpedia en français est l&#39;un de ces outils essentiels. Dbpedia et Wikidata sont amenés à jouer le rôle de pivot incontournable pour lier l&#39;ensemble des données culturelles quel que soit leur secteur. Cette présentation détaillera les travaux du laboratoire Wimmics d’Inria qui a mis en œuvre l&#39;actualisation du chapitre francophone de Dbpedia.

#### Oratrice
Marie-Véronique Leroi est chargée de mission « sémantisation des données culturelles et projets européens » au Service du Numérique du Ministère de la
Culture. Elle est en charge de l’actualisation et de la mise en oeuvre de la stratégie sémantique du ministère ainsi que le suivi dt la coordination de la
participation française à Europeana et aux projets européens liés à la numérisation et la valorisation du patrimoine culturel.</description>
  <dc:date>2024-04-22T12:28+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16236851</guid>
  <title>État de l&#39;activité &quot;web sémantique&quot; au W3C</title>
  <link>https://cms.semweb.pro/talk/16236851</link>
  <description>Les thématiques &quot;données liées&quot; et &quot;web sémantique&quot; ont connu un regain
d&#39;activité ces derniers mois au W3C. Dans cette présentation, je propose de
présenter un bilan des actvités en cours, notamment des groupes récemments
créés ou des travaux en incubation.

#### Auteurs/Autrices
Pierre-Antoine Champin est maître de conférence à l&#39;Université Lyon 1. Il a
participé à de nombreux groupes de standardisation dans le domaine du Web
Sémantique (RDF, Linked Data Platform...) et est co-éditeur de la
recommandation JSON-LD 1.1. Depuis bientôt 2 ans, il est détaché au W3C en tant
que /fellow/, pour coordonner l&#39;activité des groupes existants autour de cette
thématique, et la création de nouveau groupes.</description>
  <dc:date>2024-04-22T12:29+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16236855</guid>
  <title>Virez le patron ! - vers des organisations autonomes et automatisées.</title>
  <link>https://cms.semweb.pro/talk/16236855</link>
  <description>Le concept d&#39;organisation autonome a resurgi ces dernières années, promu par
l&#39;émergence des blockchains et autres contrats intelligents. Ces technologies
permettent en effet de distribuer et automatiser la gouvernance d&#39;une
organisation.  Le complément de l&#39;automatisation de la gouvernance est
l&#39;automatisation à la fois de la prise de décision et de l&#39;application de ces
décisions. L’ajustement du prix d&#39;un produit suivi par sa mise à jour
automatisée; la rédaction automatisée de contenu promotionnel suivie par
l&#39;exécution automatisée d&#39;une campagne marketing; la conception et la
production automatisée d&#39;un produit industriel, sont quelques-uns des exemples
illustrant cette automatisation. La clef de la réalisation de ces projets est
toujours la même: 

* un ensemble de systèmes et de données intégrés de façon fluide au travers de l&#39;organisation et 
* Un socle de connaissances partagées permettant cette intégration.


Nous verrons au cours de cette présentation que
les technologies nécessaires sont disponibles, depuis le socle bâti sur le
projet du web sémantique, en passant par les modèles de langue et les récents
progrès de l&#39;intelligence artificielle ou de l&#39;impression 3D.  Nous
présenterons cette vision, accompagnée d&#39;exemples, et détaillerons comment la
mise en réseau des données et des systèmes produisant et consommant ces données
permet d&#39;aller vers plus d&#39;autonomie et automatisation. Cette présentation se
concentrera sur les aspects techniques et ouvrira nous le souhaitons un débat
sur la place de l&#39;automatisation dans la société.


#### Auteurs/Autrices

François Scharffe est maître de conférences en informatique à l&#39;Université de Montpellier. Son expérience est à la fois académique et industrielle. Il puise ses thématiques de recherche dans les problèmes rencontrés lors de l&#39;application des technologies de la connaissance dans les entreprises. Il a au cours de sa carrière évolué depuis des thématiques centrées sur l&#39;intégration de données et connaissances, vers des thématiques plus larges de gestion de données en entreprise, prenant en compte les contraintes et l&#39;environnement particulier auxquels sont soumis les systèmes d&#39;informations des organisations de grande taille. Il a fondé la conférence Knowledge Graph (KGC) en 2019 et en dirige depuis le comité de programmes. Il est le responsable de The Data Chefs, une société de conseil en gestion de données.</description>
  <dc:date>2024-04-22T12:30+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16236866</guid>
  <title>Sparnatural: un composant configurable d&#39;exploration de graphes de connaissance</title>
  <link>https://cms.semweb.pro/talk/16236866</link>
  <description>&lt;p&gt;Les graphes de connaissances s&#39;appuient souvent sur des modèles conceptuels
avec un haut niveau d&#39;abstraction, ce qui les rend difficiles à comprendre pour
les utilisateurs non experts. Ils sont souvent cachés derrière des formulaires
de recherche, ou des formulaires multicritères, perdant ainsi la flexibilité
d&#39;interagir avec le graphe en tant que graphe. Afin de valoriser au mieux les
graphes de connaissances, il est nécessaire de proposer des interactions
orientées vers l&#39;utilisateur final, dans un réel objectif de service public,
faisant ainsi la démonstration de l’apport de ces graphes pour la découverte
d’un domaine de connaissance. Sparnatural a été conçu et développé comme un
constructeur de requêtes SPARQL visuel, configurable, facilement déployable,
open-source et 100% client, permettant aux utilisateurs d&#39;interroger n&#39;importe
quel graphe de connaissances RDF. Nous décrirons comment Sparnatural
fonctionne, comment il peut être configuré, et nous montrerons comment il a été
déployé dans deux démonstrateurs pour les Archives Nationales de France (ANF)
et la Bibliothèque Nationale de France (BnF).  Le démonstrateur des ANF permet
d’interroger un jeu de données RDF conforme à l&#39;ontologie ICA Records In
Contexts , constituant la première publication à grande échelle par les ANF de
métadonnées archivistiques conformes à cette ontologie. Ces métadonnées
décrivent les archives de 40 des 122 études notariales existant à Paris depuis
le Moyen Age (soit environ 9 km linéaires de documents), avec les référentiels
associés (soit environ 58 millions de triplets).  Le démonstrateur de la BnF
permet d&#39;interroger facilement la totalité des données RDF déjà disponibles et
interrogeables dans data.bnf.fr. Ces données sont conformes à un modèle métier
hybride d’inspiration IFLA LRM.  Nous montrerons comment Sparnatural a permis
de donner accès à des utilisateurs non experts, avec peu d&#39;effort, à ces deux
grands graphes. Les ateliers menés avec les utilisateurs finaux ont montré
qu&#39;ils étaient enthousiastes, mais aussi surpris par ce nouveau paradigme de
recherche.  Nous espérons que grâce à la documentation produite , Sparnatural
pourra être déployé pour valoriser d’autres graphes de connaissance. La
création des démonstrateurs a montré que la configuration avec laquelle le
graphe est montré aux utilisateurs finaux est essentielle pour fournir un accès
efficace et parlant. La facilité de configuration de Sparnatural est l’une
piste de travail pour l’avenir du composant ; les autres pistes sont la
hiérarchisation des sélections de classes et de propriétés, l’ajout des
fonctions d&#39;agrégation, et de sélection de valeurs sur une carte pour générer
du GeoSPARQL.&lt;/p&gt;
&lt;h4&gt;Références&lt;/h4&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a href=&quot;https://tfrancart.github.io/sparnatural-iswc-2022/&quot;&gt;https://tfrancart.github.io/sparnatural-iswc-2022/&lt;/a&gt; article plus complet (en anglais)&lt;/li&gt;
&lt;li&gt;&lt;a href=&quot;https://youtu.be/jcfldxjsBkk&quot;&gt;https://youtu.be/jcfldxjsBkk&lt;/a&gt; vidéos longue en anglais, avec explication de la configuration&lt;/li&gt;
&lt;li&gt;&lt;a href=&quot;https://www.youtube.com/watch?v=93XV-SZD6tk&quot;&gt;https://www.youtube.com/watch?v=93XV-SZD6tk&lt;/a&gt; vidéo courte en français, avec présentation des démonstrateurs.&lt;/li&gt;
&lt;/ul&gt;
&lt;h4&gt;Auteurs/Autrices&lt;/h4&gt;
&lt;p&gt;Thomas Francart est consultant sur les graphes de connaissances, fondateur de
la société Sparna qui a développé Sparnatural. Thomas modélise, transforme,
publie, interroge des graphes de connaissance, des terminologies et des
ontologies depuis 20 ans, dans les domaines variés : documentaire, culturels,
médical ou encore législatif&lt;/p&gt;
&lt;p&gt;Florence Clavaud est conservatrice générale du patrimoine, actuellement
responsable du tout nouveau Lab des Archives nationales. Elle travaille depuis
longtemps au carrefour des sciences de l&#39;information et de l&#39;archivistique,
notamment sur les questions de modélisation, de production et de publication
des métadonnées archivistiques. Elle est membre du groupe d&#39;experts de
l&#39;International Council on Archives (ICA) chargé d&#39;élaborer la norme Records in
Contexts, dans lequel elle pilote le développement de l&#39;ontologie.&lt;/p&gt;</description>
  <dc:date>2024-04-22T12:33+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16236872</guid>
  <title>Maintenir son graphe de connaissance via Hanami</title>
  <link>https://cms.semweb.pro/talk/16236872</link>
  <description>&lt;p&gt;Dans le cadre de notre soutien apporté à la Chancellerie Fédérale Suisse,
Cognizone a été en charge de maintenir le graphe de connaissance Fedlex et
notamment d’opérer toute une série d’opérations de maintenance (corrections,
suppressions, ajout de métadonnées) sur des graphes nommés non éditables par
les utilisateurs. &lt;/p&gt;
&lt;p&gt;Ce travail presque quotidien est une perte de temps pour nos équipes, représente
un coût non négligeable pour notre client et engendre une série de questions de
sécurité (seulement certaines personnes ayant été autorisées à manipuler le graphe).&lt;/p&gt;
&lt;p&gt;Partant de ce constat, Cognizone a décidé de proposer une solution générique pour
maintenir son graphe de connaissance de manière collaborative : Hanami ! &lt;/p&gt;
&lt;p&gt;La taille des organisations augmente, tout comme celle de leurs données. Même s&#39;il
devient moins cher et plus facile d&#39;ingérer, de stocker et de transformer les données,
sans une stratégie de gestion des données adaptée, des silos de données apparaissent 
rapidement et compliquent la productivité et la coopération.&lt;/p&gt;
&lt;p&gt;Les outils existants offrent des fonctionnalités puissantes pour travailler avec les
graphes de connaissances d&#39;entreprise et le RDF. Mais ils nécessitent des professionnels
qualifiés et manquent souvent de facilité d&#39;utilisation, ce qui rend ce processus inefficace
et peu flexible. 
C&#39;est pourquoi nous avons développé Hanami, un outil adapté à la fois aux experts et aux
utilisateurs moins techniques, pour générer des formulaires d&#39;édition de graphes RDF basés
sur des documents SHACL. &lt;/p&gt;
&lt;p&gt;Hanami simplifie la compréhension et l&#39;utilisation de RDF, en
rendant la puissance de la sémantique plus accessible.  Notre solution garantit
un très haut niveau de qualité des données, basé sur les standards du W3C, et
donne accès à l&#39;édition de graphes RDF à des utilisateurs moins qualifiés
techniquement : notre approche consiste à automatiser la création de modèles de
données et l&#39;édition de données en général grâce à SHACL.  Nous utilisons SHACL
pour fournir à la fois la disposition de l&#39;interface utilisateur et les
contraintes de validité des données.  Notre interface d&#39;édition est construite
comme un formulaire &quot;traditionnel&quot;, ce qui simplifie les tâches d&#39;édition des
graphes de connaissances et minimise les erreurs.&lt;/p&gt;
&lt;h4&gt;Auteurs/Autrice&lt;/h4&gt;
&lt;p&gt;Gregory De Backer, COO de la société Cognizone, travaille dans le domaine du
web sémantique et des graphes de connaissance depuis 2015.  Depuis qu&#39;il a
rejoint Cognizone, Gregory a supervisé divers projets allant de l&#39;élaboration
d&#39;ontologies, de thésaurus et de preuves de concepts à des applications de
production fournissant des données LOD de manière transparente.&lt;/p&gt;
&lt;p&gt;Le domaine d&#39;expertise de Gregory est la législation. Il a assisté le Luxembourg
dans la définition et la création d&#39;applications pour la supervision et la publication
d&#39;informations, de traités, de projets et de directives européennes pertinents
pour les États membres (projet LegiLUX).&lt;/p&gt;
&lt;p&gt;En 2020, il a dirigé une des équipes de Cognizone pour surmonter la complexité du
système législatif suisse dans le cadre du projet Legi4CH, visant à concevoir et
préparer des applications législatives pour publier les lois fédérales suisses à
partir du 1er janvier 2021.&lt;/p&gt;</description>
  <dc:date>2024-04-22T12:48+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16236878</guid>
  <title>OpenSILEX : pour des SI pilotés par des ontologies</title>
  <link>https://cms.semweb.pro/talk/16236878</link>
  <description>&lt;p&gt;&lt;a href=&quot;http://www.opensilex.org&quot;&gt;OpenSILEX&lt;/a&gt; une suite logicielle qui permet de construire
des systèmes d&#39;information capables d’appréhender la complexité des données des
agro-écosystèmes et de répondre aux exigences d&#39;une science ouverte et reproductible.&lt;/p&gt;
&lt;p&gt;OpenSILEX est piloté par des ontologies et s&#39;appuie fortement sur les technologies
du Web Sémantique.&lt;/p&gt;
&lt;p&gt;Cette approche a permis de réaliser plusieurs systèmes qui intègrent
directement les concepts et les vocabulaires de différentes communautés :&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Sixtine (unités expérimentales du végétal à INRAE)&lt;/li&gt;
&lt;li&gt;PHIS Phénotypage végétal haut débit&lt;/li&gt;
&lt;li&gt;SunAgri (agro-photovoltaïque),&lt;/li&gt;
&lt;li&gt;WEIS écosystèmes aquatiques&lt;/li&gt;
&lt;li&gt;ENVIBIS Biothernologies de l&#39;environnement&lt;/li&gt;
&lt;/ul&gt;
&lt;h4&gt;Auteur&lt;/h4&gt;
&lt;p&gt;Pascal Neveu est directeur de l&#39;unité Structure Mathématiques, Informatique et
Statistique pour l&#39;Environnement et l&#39;Agronomie (MISTEA) qui associe des
enseignants-chercheurs du département Mathématiques et Informatique Appliqués
(MIA) de l&#39;INRA et du département Sciences pour les AgroBioProcédés de SupAgro
Montpellier.&lt;/p&gt;</description>
  <dc:date>2024-04-22T12:50+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16236883</guid>
  <title>L&#39;approche sémantique au service de la réconciliation des données - L&#39;utilisation de Raffiné par France Télévisions</title>
  <link>https://cms.semweb.pro/talk/16236883</link>
  <description>&lt;p&gt;La donnée est partout. Disparates, hétérogènes, les données sont pourtant au
coeur du cycle de production des organisations. Bien souvent, elles
représentent à la fois le début (ce dont les métiers ont besoin) et la fin (ce
que les métiers produisent) de toute activité de production.  Cependant, un
problème fondamental est récurrent dans toute organisation: la non-circulation
des données. Gérées et produites dans des environnements cloisonnés, elles sont
bien souvent inaccessibles d&#39;un système à l&#39;autre, et sont donc produites à
nouveau pour palier à ce manque d&#39;accès. Pour résoudre cette problématique, la
solution bien souvent envisagée est la mise en place d&#39;un Data Lake, visant à
résoudre ces problèmes d&#39;accessibilité par l&#39;agglomération variée et en grand
volume de ces données hétérogènes.  Mais vise-t-on véritablement
l&#39;accessibilité sans intelligibilité ? Fortement implicite, dépourvue de
contexte, la donnée seule est difficilement exploitable.  C&#39;est ce qu&#39;ont
compris les équipes de France Télévisions dans le cadre du projet Data
Programmes.  Embarquant en son coeur la solution Raffiné de Perfect Memory, le
projet vise à faire converger la diversité des données produites autour des
programmes diffusés sur les chaines du groupe: données de production, données
de diffusion, données d&#39;audience... Et ceci avec l&#39;objectif de garantir une
exploitation métier de celles-ci.  A travers la mise en oeuvre d&#39;ontologies
dédiées à la réconciliation et l&#39;accessibilité métier au sein de la solution
Raffiné, en s&#39;appuyant sur les cas d&#39;usage de France Télévisions, Perfect
Memory partagera son expérience sur les barrières levées et les problématiques
opérationnelles résolues grâce à l&#39;approche sémantique.
La solution Perfect Memory est utilisée aujourd&#39;hui par plusieurs grands
acteurs des médias, mais aussi dans d&#39;autres verticaux comme les clubs sportifs
ou les télécommunications.
Aperçu vidéo des fonctionnalités de Trouvé, interface utilisateur de &lt;a href=&quot;https://www.youtube.com/watch?v=iEUNfp8rPLc&quot;&gt;Perfect
Memory&lt;/a&gt;&lt;/p&gt;
&lt;h4&gt;Auteurs/Autrices&lt;/h4&gt;
&lt;p&gt;Guillaume Rachez - Directeur Produit à Perfect Memory. Ingénieur issu du monde
de l&#39;audiovisuel, Guillaume est un spécialiste de la convergence des domaines
du média et des technologies sémantiques.
Son expérience de près de 15 ans alliant le développement d&#39;outils de traitement
sémantique et le management de projets clients lui permet d&#39;appréhender et partager
une vue complète sur les enjeux fonctionnels et techniques que Perfect Memory doit
adresser.  &lt;/p&gt;
&lt;p&gt;Toujours proche des utilisateurs, Guillaume assure au coeur de son activité le Product
Management de la suite logicielle de Perfect. De l&#39;identification des besoins
au développement en passant par l&#39;arbitrage des idées, il coordonne le cycle
des évolutions fonctionnelles, construisant et faisant vivre la feuille de
route Produit.  Collaborateur de Perfect Memory depuis les premières heures, il
a contribué à la mise en oeuvre des concepts fondateurs de la plateforme.&lt;/p&gt;</description>
  <dc:date>2024-04-22T12:58+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18269082</guid>
  <title>C3PO: une ontologie sur la planification maraîchères et son graphe de connaissance</title>
  <link>https://cms.semweb.pro/talk/18269082</link>
  <description>&lt;p&gt;Les producteurs de cultures maraîchères diversifient leur production en
cultivant plusieurs cultures au cours de la saison et sur leurs différentes
parcelles. La diversification et la rotation des cultures permettent aux
agriculteurs d&#39;augmenter leurs revenus et leurs rendements tout en améliorant
la durabilité de leur exploitation face aux événements climatiques et aux
attaques de ravageurs. Pour cela, les agriculteurs doivent planifier leurs
travaux agricoles pour l&#39;année et sur plusieurs années.&lt;/p&gt;
&lt;p&gt;La planification est réalisée sur la base de leurs connaissances et leurs
expériences des planifications précédentes. Afin d&#39;aider les agriculteurs dans
leurs décisions de planification, ainsi que dans le suivi des cultures, nous
avons développé la Crop Planning and Production Process Ontology (C3PO). C’est
une ontologie pour la représentation des connaissances et des données agricoles
pour le maraîchage diversifié. C3PO est composée de huit modules permettant
d&#39;appréhender toutes les dimensions et la complexité de la production agricole.
L&#39;ontologie décrit les processus agricoles, l&#39;organisation des fermes et
capture les connaissances agricoles communes.&lt;/p&gt;
&lt;p&gt;C3PO introduit une représentation des itinéraires techniques de culture,
c&#39;est-à-dire des séquences de tâches agricoles pour cultiver des légumes, de
l&#39;identification du sol et à la sélection des semences jusqu’à la récolte et au
stockage. C3PO est le modèle d&#39;un graphe de connaissances qui agrège des
données provenant de ressources sémantiques hétérogènes avec des taxonomies
d&#39;organismes, des produits chimiques, des listes de cultures de référence ou
des stades de développement. C3PO et son graphe de connaissances sont utilisés
par l&#39;entreprise Elzeard pour développer des systèmes d&#39;aide à la décision
basée sur la connaissance pour les agriculteurs.&lt;/p&gt;</description>
  <dc:date>2024-04-17T14:19+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18269234</guid>
  <title>Gestion des nomenclatures en RDF avec XKOS</title>
  <link>https://cms.semweb.pro/talk/18269234</link>
  <description>&lt;p&gt;L&#39;Insee a recours aux vocabulaires RDF pour gérer une grande partie de ses
métadonnées relatives aux processus statistiques. Parmi celles-ci, les
nomenclatures sont centrales. Elles permettent de définir les concepts et les
codes et que l&#39;on retrouve tout au long des processus statistiques : en début
de processus, par exemple pour stratifier une base de sondage, ou en diffusion,
en tant que grilles d&#39;analyse de tableaux agrégés. Il est requis que les
nomenclatures nationales soient cohérentes avec les nomenclatures européennes
et  internationales pour permettre de passer à l&#39;échelle dans les comparaisons.
Les nomenclatures, en particulier lorsqu&#39;elles sont partagées dans un format
RDF, permettent également de faciliter l&#39;interopérabilité entre les processus
en fournissant une référence pour les codes et leur contenu.&lt;/p&gt;
&lt;p&gt;Le standard XKOS, qui est un des produits RDF de la DDI Alliance, se base
essentiellement sur le standard SKOS et en propose des extensions pour répondre
aux spécificités des nomenclatures statistiques. Il permet de décrire leurs
structures hiérarchiques de manière formelle. Il introduit des sous-propriétés
qui spécialisent les relations skos:broader et skos:narrower. XKOS complète
aussi les notes skos:note et skos:scopeNote par une série de notes typiques des
nomenclatures : par exemple xkos:coreContentNote, xkos:inclusionNote ou encore
xkos:caseLaw. Enfin, XKOS propose une formalisation les tables de
correspondances qui sont nécessaires pour les travaux mettant en oeuvre
plusieurs nomenclatures.&lt;/p&gt;
&lt;p&gt;Un guide de bonnes pratiques XKOS (un document ReSpec en cours de revue) donne
des exemples d&#39;utilisation de ce vocabulaire. Les utilisations attendues des
propriétés RDF sont notamment spécifiées via des contraintes SHACL.&lt;/p&gt;
&lt;p&gt;Les exemples d&#39;implémentation de nos nomenclatures en XKOS sont accessibles via
le SPARQL EndPoint de l&#39;Insee. Ces métadonnées sont gérées en interne avec
notre application de gestion des métadonnées, appelée Bauhaus, qui est publiée
en open source (cf. le lien ci-dessous).&lt;/p&gt;
&lt;p&gt;liens :
  *   Les bonnes pratiques XKOS :
      &lt;a href=&quot;http://linked-statistics.github.io/xkos/xkos-best-practices.html&quot;&gt;http://linked-statistics.github.io/xkos/xkos-best-practices.html&lt;/a&gt;
  *   La spécification XKOS :
      &lt;a href=&quot;https://ddialliance.org/Specification/XKOS/1.2/OWL/xkos.html#sem-props&quot;&gt;https://ddialliance.org/Specification/XKOS/1.2/OWL/xkos.html#sem-props&lt;/a&gt;
  *   GitHub XKOS :
      &lt;a href=&quot;https://github.com/linked-statistics/xkos/blob/master/xkos-best-practices.html&quot;&gt;https://github.com/linked-statistics/xkos/blob/master/xkos-best-practices.html&lt;/a&gt;
  *   Insee SPARQL Endpoint &lt;a href=&quot;https://rdf.insee.fr/&quot;&gt;https://rdf.insee.fr/&lt;/a&gt;
  *   Github Bauhaus &lt;a href=&quot;https://github.com/InseeFr/Bauhaus&quot;&gt;https://github.com/InseeFr/Bauhaus&lt;/a&gt;&lt;/p&gt;</description>
  <dc:date>2024-04-17T14:11+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18269255</guid>
  <title>Le Serveur Multi-Terminologies (SMT)</title>
  <link>https://cms.semweb.pro/talk/18269255</link>
  <description>&lt;p&gt;L’essor du numérique en santé s’appuie un écosystème de Terminologie
biomédicales permettant de coder les données médicales dans les dossiers
patients et entrepôt de données de santé. Publiées par différents organismes
nationaux tel que l’ANSM ou internationaux (NIH, OMS) ; elles sont accessibles
dans des formats hétérogènes (tabulaire, système API) complexifiant ainsi leur
intégration et usage par les acteurs de la e-santé. Pour répondre à ces enjeux,
l’ANS a construit le Serveur Multi -Terminologies (SMT) comme un service socle
de l’interopérabilité en santé fondé sur les technologies du web sémantique. Il
permet de centraliser, standardiser les formats de publication et renforcer le
processus de gestion des Terminologies de référence. Le SMT intègre 22
Terminologies dont les classifications de l’OMS (CIM 10, CIM 11), du
médicament, de la CNAM (CCAM, RIHN, NABM) ainsi que   des terminologies
spécifiques comme Nuva (vaccins), NCIT (oncologie) et NCBI (Taxonomie du
vivant).&lt;/p&gt;
&lt;p&gt;Le SMT propose aux utilisateurs quatre grandes fonctionnalités : 
1) le catalogue des Terminologie 
2) une interface de navigation dans les ressources
3) un moteur de recherche de concepts et 
4) des accès programmatiques via un point de terminaison SPARQL et des API.&lt;/p&gt;
&lt;p&gt;La gestion et la diffusion des Terminologies s’appuient sur des processus
automatisés de transformation des fichiers initiaux et un back-end (TopBraid)
permettant d’effectuer le contrôle qualité et d’orchestrer la publication sur
le site.&lt;/p&gt;
&lt;p&gt;La modélisation ontologique des Terminologies reprend l’intégralité des
informations métiers des ressources originelles et standardise les éléments
communs à toutes les Terminologies grâce à un métamodèle. L’uniformisation de
la représentation des codes, libellés et mécanismes d’historisation facilite
l’adoption des Terminologies au sein des Systèmes d’Informations.&lt;/p&gt;
&lt;p&gt;Depuis son lancement en novembre 2020, le SMT continue d’évoluer pour améliorer
les fonctionnalités existantes. Fin 2023, le SMT disposera d’un service d’API
FHIR, standard d’interopérabilité syntaxique en santé, répondant aux besoins
des industriels. La publication d’alignements et leurs visualisations, prévu
pour 2024, va améliorer l&#39;utilisation des terminologies médicales en créant un
réseau structuré et interconnecté.&lt;/p&gt;
&lt;p&gt;Liens vers l’outil :&lt;/p&gt;
&lt;p&gt;SMT : &lt;a href=&quot;https://smt.esante.gouv.fr/&quot;&gt;https://smt.esante.gouv.fr/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Point de terminaison SPARQL : &lt;a href=&quot;https://smt.esante.gouv.fr/sparql/&quot;&gt;https://smt.esante.gouv.fr/sparql/&lt;/a&gt;&lt;/p&gt;</description>
  <dc:date>2024-04-22T12:01+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18271392</guid>
  <title>Une ontologie pour le code de catalogage RDA-FR</title>
  <link>https://cms.semweb.pro/talk/18271392</link>
  <description>&lt;p&gt;L’ontologie RDA-FR en cours d’élaboration est un des volets programme de Transition bibliographique en France. Elle vise à exprimer les technologies du Web Sémantique les entités, leurs attributs et relations définies par le code de catalogage RDA-FR en conformité le modèle conceptuel international IFLA LRM.&lt;/p&gt;
&lt;p&gt;Cette ontologie est en assez avancée dans son élaboration. 
Elle est aussi publiée au fur et à mesure de sa réalisation sur le site dédiée
https//rdafr.fr.
Cette présentation propose de donner le cadre global de l’initiative, un des lieux de la réalisation et des focus concrets sur les choix de et techniques. 
Nous informerons d’abord sur la motivation pour l’élaboration de cette les enjeux et objectifs à atteindre, le calendrier de et la démarche adoptée : un travail de collaboration entre le en ontologies engagé
pour le projet et les experts métier du Transition bibliographique.&lt;/p&gt;
&lt;p&gt;Nous poursuivrons avec les principes fondateurs de l’ontologie RDA-FR et choix de
modélisation et de conception technique-fonctionnelle, la dissociation de
l’ontologie, d’une part, et des règles et liées à son implémentation, d’autre
part ; nous proposons de nous attarder sur le choix et la mise en œuvre de
la réification pour permettre l’association de méta-métadonnées propriétés de
l’ontologie. &lt;/p&gt;
&lt;p&gt;A consulter : dédié à l&#39;ontologie RDA-FR &lt;a href=&quot;https://rdafr.fr&quot;&gt;https://rdafr.fr&lt;/a&gt;. 
Outre un texte on y trouve les liens vers : version HTML du profil d’application
RDA-FR  : &lt;a href=&quot;https://rdafr.fr/profil-application/&quot;&gt;https://rdafr.fr/profil-application/&lt;/a&gt; version SHACL du profil
d’application (au format turtle), : &lt;a href=&quot;https://rdafr.fr/profil-application/rdafr-shacl.ttl&quot;&gt;https://rdafr.fr/profil-application/rdafr-shacl.ttl&lt;/a&gt; version HTML de l’ontologie&lt;/p&gt;
&lt;p&gt;Ensemble de l’ontologie est géré depuis le compte GitHub du programme bibliographique :
&lt;a href=&quot;https://github.com/transition-bibliographique/ontologie-rda-fr&quot;&gt;https://github.com/transition-bibliographique/ontologie-rda-fr&lt;/a&gt;.&lt;/p&gt;</description>
  <dc:date>2024-04-22T12:02+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18269369</guid>
  <title>Scorebot : utilisation du langage naturel pour interroger un graphe de partitions musicales</title>
  <link>https://cms.semweb.pro/talk/18269369</link>
  <description>&lt;p&gt;La Médiathèque de la Philharmonie de Paris s’apprête à mettre en ligne un
chatbot - appelé “ScoreBot” - destiné à faciliter les recherches dans son fonds
de partitions musicales grâce aux technologies du web de données et au deep
learning.&lt;/p&gt;
&lt;p&gt;L’outil permettra d’effectuer des requêtes dans le catalogue en utilisant des
formulations en langage naturel du type :  “Je cherche des partitions pour
violon, flûte et piano du XIXe siècle” ou “Avez-vous des méthodes pour harpiste
débutant ?”. ScoreBot améliorera l’expérience utilisateur tout en permettant
d’exploiter la finesse des informations présentes dans la base de données. En
effet, peu d’utilisateurs parviennent aujourd’hui à formuler ces requêtes avec
le formulaire de recherche avancée ou le moteur à facettes disponibles.&lt;/p&gt;
&lt;p&gt;Cette présentation décrit les différentes étapes du projet, de la conversion
des notices en RDF au paramétrage de l&#39;interface de recherche. La génération de
requêtes SPARQL à partir de questions exprimées en langage naturel n’a été
rendue possible que récemment par les technologies de deep learning. Pour ce
projet, un modèle de type Transformer a été entraîné à extraire les
informations importantes des questions des utilisateurs, pour les insérer dans
des requêtes SPARQL pré-rédigées.&lt;/p&gt;
&lt;p&gt;ScoreBot est une application pratique du projet de recherche DOREMUS présenté
lors d’une précédente conférence SemWeb.Pro. Une fois le projet finalisé, les
résultats seront rendus disponibles en opensource.&lt;/p&gt;
&lt;p&gt;Interface de test consultable à cette adresse :
&lt;a href=&quot;https://catalogue.philharmoniedeparis.fr/pprd-les-partitions.aspx&quot;&gt;https://catalogue.philharmoniedeparis.fr/pprd-les-partitions.aspx&lt;/a&gt;&lt;/p&gt;</description>
  <dc:date>2024-04-17T14:43+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18269314</guid>
  <title>Celeste, une app tournée vers le bien-être mental</title>
  <link>https://cms.semweb.pro/talk/18269314</link>
  <description>Celeste, une app tournée vers le bien-être mental

Le moral de nos contemporains (pour ne pas dire leur santé mentale) s’est fortement dégradé depuis
les confinements. L’application Celeste est tournée vers le bien-être mental : elle aide à trouver des
solutions aux problèmes pro ou perso, grâce à un dialogue ludique avec un agent conversationnel.
L’app permet de gagner en autonomie, de fixer et tenir ses propres objectifs. Nous présenterons
notre application pilote pendant la session.

Sur le plan technologique, l’app utilise un LLM augmenté par un mécanisme de mémoire qui permet
de contextualiser les dialogues (approche retrieval augmented generation). Les informations extraites
du dialogue alimentent une base de connaissances (taxonomie SKOS et base de données), qui
alimente à son tour les dialogues.

La confidentialité des échanges est un point essentiel, garanti ici par des mécanismes d’encryptage et
d’anonymisation des échanges. L’ensemble des informations massifiées, extraites des dialogues,
constitue un graphe dense qui pourra fournir par apprentissage profond, un jumeau numérique des
comportements humains. L’utilisation de LLM commerciaux US (GPT) soulève des questions de
souveraineté numérique, auxquelles l’utilisation de solutions open source fournissent des premiers
éléments de réponse. Dernier point essentiel, l’app a un but : accompagner et aider l’utilisateur en
personnalisant les méthodes qu’elle lui propose, avec un suivi des objectifs fixés en commun.</description>
  <dc:date>2024-04-17T14:44+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18269343</guid>
  <title>Paprika.idref.fr : une interface web assistée par IA pour le liage personnes/documents</title>
  <link>https://cms.semweb.pro/talk/18269343</link>
  <description>&lt;p&gt;PAPRIKA est un outil développé par l&#39;Abes (Agence Bibliographique de
l&#39;Enseignement Supérieur) comme prolongement d&#39;un projet ANR mené avec le
laboratoire LIRMM (Laboratoire d&#39;Informatique, de Robotique et de
Microélectronique de Montpellier, UMR 5506) sur la qualité des grands
catalogues documentaires. 
L&#39;interface web (&lt;a href=&quot;http://www.paprika.idref.fr&quot;&gt;www.paprika.idref.fr&lt;/a&gt;&lt;a href=&quot;http://www.paprika.idref.fr&quot;&gt;http://www.paprika.idref.fr&lt;/a&gt; ) permet 
aux professionnels de la documentation d&#39;interroger et de modifier de manière ergonomique les
liens entre les personnes décrites dans le référentiel IdRef et les documents
présents dans le catalogue collectif Sudoc, qui rassemble les collections des
bibliothèques d&#39;enseignement supérieur et de recherche en France. &lt;/p&gt;
&lt;p&gt;Les données sont mises à jour et interrogeables dans la base graphe adossée (data.idref.fr)
qui dispose d&#39;un SPARQL Endpoint. PAPRIKA comprend également l&#39;appel à un
programme d&#39;intelligence artificielle explicable ou symbolique (Qualinka) qui
effectue un diagnostic et des suggestions de liens, en exploitant des
informations telles que les sujets et les co-contributeurs des documents. Son
fonctionnement repose sur des webservices génériques qui permettent
potentiellement d&#39;interroger toute source documentaire. Le code de Qualinka est
ouvert et publié ici : &lt;a href=&quot;https://github.com/abes-esr/qualinka-sudoc&quot;&gt;https://github.com/abes-esr/qualinka-sudoc&lt;/a&gt; PAPRIKA a été
développé par Aline Le Provost, ingénieure d&#39;études et chef de produit, et Yann
Nicolas, conservateur des bibliothèques, spécialiste du web sémantique. Yann
Nicolas travaille à l&#39;Abes depuis 20 ans et a oeuvré pour la promotion du
Linked Open Data au sein de l&#39;institution et des bibliothèques universitaires
françaises. Il dirige le service Labo de l&#39;Abes, dont la priorité est
l&#39;application du machine learning aux données et services de l&#39;Abes.&lt;/p&gt;
&lt;p&gt;Liens :&lt;/p&gt;
&lt;p&gt;Article publié : &lt;a href=&quot;https://hal.science/hal-02563630&quot;&gt;https://hal.science/hal-02563630&lt;/a&gt; (2020)
Présentations de l&#39;outil disponibles en ligne :
&lt;a href=&quot;https://zenodo.org/record/7973459&quot;&gt;https://zenodo.org/record/7973459&lt;/a&gt; (2023)&lt;/p&gt;
&lt;p&gt;&lt;a href=&quot;https://www.transition-bibliographique.fr/systemes-et-donnees/4e-journee-professionnelle-metadonnees-en-bibliotheques-du-15-novembre-2019/&quot;&gt;https://www.transition-bibliographique.fr/systemes-et-donnees/4e-journee-professionnelle-metadonnees-en-bibliotheques-du-15-novembre-2019/&lt;/a&gt; (2019)&lt;/p&gt;
&lt;p&gt;&lt;a href=&quot;https://vimeo.com/275207950&quot;&gt;https://vimeo.com/275207950&lt;/a&gt; (2019)&lt;/p&gt;</description>
  <dc:date>2024-04-22T12:06+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18269495</guid>
  <title>État de l&#39;activité &quot;web sémantique&quot; au W3C</title>
  <link>https://cms.semweb.pro/talk/18269495</link>
  <description>&lt;p&gt;Cette présentation fait suite à celle que j&#39;ai faite l&#39;an dernier à SemWeb.pro,
où je présentais le regain d&#39;intérêt pour les thématiques &quot;données liées&quot; et
&quot;web sémantique&quot; au sein du consortium W3C. &lt;/p&gt;
&lt;p&gt;Je présenterai ici les avancées accomplies en un an par les différents groupes
de travail: évolution du standard RDF, canonicalisation RDF, /data integrity/,
le vocabulaire DCAT. &lt;/p&gt;
&lt;p&gt;Je présenterai enfin les groupes en cours de création et les futurs standards sur
lesquels ces groups vont travailler.&lt;/p&gt;</description>
  <dc:date>2024-04-22T12:07+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18269509</guid>
  <title>IRPIA : Outil d’indexation de ressources pédagogiques intelligent et assisté : un projet du Ministère de l’Education Nationale et de la Jeunesse</title>
  <link>https://cms.semweb.pro/talk/18269509</link>
  <description>&lt;p&gt;IRPIA est un prototype d’outil d’indexation de ressources pédagogiques intelligent et
assisté.&lt;/p&gt;
&lt;p&gt;L’objectif est d’aider les éditeurs à créer les notices de leurs ressources
pédagogiques dans le GAR. Le GAR (Gestionnaire d’accès aux ressources) est le
catalogue des ressources pédagogiques aux services des élèves et enseignants.&lt;/p&gt;
&lt;p&gt;Une approche plurielle pour réduire la charge de description
Dans le cadre du projet, six axes ont été sélectionnés en vue de réduire la charge de
description des ressources numériques pédagogiques:
1) Simplification du modèle de description
La réduction du modèle à un sous-ensemble de champs jugés essentiels,
prenant en compte les exigences spécifiques du GAR, est une démarche
simple mais indispensable pour réduire le coût de l’adoption du standard
ScoLOMFR.
2) Suggestion par machine learning
L’existence de grandes bases de ressources numériques manuellement
indexées au standard ScoLOMFR rend possible l’entraînement de modèles
d’apprentissage profond, notamment les algorithmes modernes de
classification exploitant les techniques de “plongement lexical” sous leur
forme la plus récente, les transformers. On suggère à l’utilisateur, à partir de
valeurs saisies dans certains champs tels que le titre, les valeurs qui ont le
plus de chance d’être pertinentes pour les autres champs.
3) Optimisation UX/UI
L’un des défauts des interfaces de description basées sur les standards est
souvent leur apparence peu attrayante. L’application de principes simples
d’optimisation UX/UI (user experience/user interface) a permis de remédier à
ce problème.
4) Suggestion par inférence
Construits selon les standards du web sémantique, les vocabulaires
ScoLOMFR contiennent des assertions de relations entre entités (ex. “point de
programme enseigné dans niveau” ) qui sont exploitées pour suggérer des
valeurs pertinentes pour certains champs.
5) Suggestion par extraction des contenus (scraping)
Lorsque les ressources sont des pages web certains champs de
métadonnées sont extraits par scraping : typiquement, le titre, la description.
6) La suggestion depuis des API de référentiels
Nous disposons au niveau national de référentiels accessibles via des APIs :
annuaire administratif des entreprises (Sirène), référentiels d’autorités : ISNI,
BNF, Idref qui sont utilisés pour récupérer la description et les identifiants des
auteurs et éditeurs de la ressource pédagogique.
Ce projet combine deux approches: les technologies du web sémantique (ontologies,
raisonneurs...) qui se rattachent au domaine de l&#39;IA symbolique et le machine
learning qui fait appel à l&#39;IA probabiliste.&lt;/p&gt;
&lt;p&gt;En résumé, l’objectif de ce projet est d&#39;appréhender ce qui est possible de réaliser en
termes d’assistance à la saisie d’informations structurées en mobilisant toutes les
technologies à notre disposition, mais aussi de préparer une nouvelle génération
d’outils de saisie pour simplifier le travail des éditeurs et améliorer la qualité et
complétude des notices des ressources au format ScoLOMFR.&lt;/p&gt;</description>
  <dc:date>2024-04-17T14:51+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18269527</guid>
  <title>GraphQL pour l’Intégration de Données JSON et RDF pour OpenSILEX</title>
  <link>https://cms.semweb.pro/talk/18269527</link>
  <description>&lt;p&gt;L&#39;intégration de données est un défi complexe en raison de la diversité des
sources de données (structures, vocabulaires, concepts, mécanismes accès, etc).
Pour répondre à cette problématique, OpenSILEX propose une suite logicielle
spécialisée dans la création de Systèmes d&#39;Information pilotés par des
ontologies, notamment afin d&#39;intégrer directement les   concepts et les
vocabulaires de différentes communautés scientifiques (agriculture,
environnement, agro-alimentaire). Pour cela, OpenSILEX s&#39;appuie sur la
complémentarité de technologies du Web Sémantique et de gestion de documents
JSON. Cette approche permet de distribuer et d’organiser les masses données et
offre la flexibilité et la précision nécessaires pour une gestion efficace :&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;les éléments de structuration (vocabulaires, propriétés,
      descriptions...), les données contextuelles, les annotations ainsi que
      les liens sont en RDF et gérés à l&#39;aide d&#39;outils et de technologies du
      Web Sémantique.&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;les séries de valeurs, issues d&#39;instrumentations (par exemple des
      capteurs organisés en réseaux ou embarqués) ou issues de workflows, qui
      se répètent dans l&#39;espace et/ou dans  le temps, sont représentées en JSON
      et gérées dans MongoDB.&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Le défi consiste à regrouper et à croiser ces données pour faciliter leur
exploitation et obtenir des informations complémentaires regroupées de façon
cohérente. Nous proposons une  solution basée sur GraphQL afin d’intégrer les
données issues de RDF et de JSON en s’appuyant sur des technologies avancées,
notamment de Gateway GraphQL. Cette technologie assure  le rôle essentiel d&#39;une
couche d’abstraction intermédiaire garantissant un accès, via un schéma
virtuel, cohérent aux sources de données existantes (Triplestore ou NoSQL).
Cette approche de gateways permet une unification de l&#39;accès aux données créant
ainsi une vue globale et dynamique des différents schémas de données. En
particulier, cela simplifie l&#39;interrogation des données pour une utilisation à
des fins d&#39;analyse et de prise de décision. Les gateways gèrent la propagation
des requêtes vers les sources de données, et les   résultats obtenus sont
ensuite intégrés puis retournés à l&#39;utilisateur, rendant ainsi l&#39;accès aux
données plus fluide et efficace.&lt;/p&gt;
&lt;p&gt;En distribuant les données dans des sources JSON et RDF, OpenSILEX offre une
approche globale pour la gestion de masses de données complexes au profit de
communautés scientifiques.  Tandis que l&#39;utilisation de gateways GraphQL permet
une intégration virtuelle efficace. Cette solution répond à des besoins tels
que ceux d’agriculture moderne en matière de gestion des données.&lt;/p&gt;</description>
  <dc:date>2024-04-17T14:51+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18269546</guid>
  <title>Les principaux enjeux et solutions développés lors de l’expérimentation CapData Opéra – Découvrabilité portée par la Réunion des Opéras de France</title>
  <link>https://cms.semweb.pro/talk/18269546</link>
  <description>&lt;p&gt;Le projet CapData Opéra porte sur le développement d’une solution de
structuration et de diffusion des données culturelles en capacité de répondre
aux enjeux de développement des publics, de soutien à la création artistique et
d’accès à la culture.&lt;/p&gt;
&lt;p&gt;Lors de ce projet, une ontologie commune a été spécifiée pour permettre
l&#39;interopérabilité des données, qui sont exportées et intégrées dans un
entrepôt SPARQL commun. Pendant ce processus, des traitements de nettoyage et
d&#39;alignement des données ont été menés dans un but d&#39;enrichissement. Les
données, exposées en SPARQL, sont ensuite réimportées dans les   sources
originelles pour profiter des enrichissements et des alignements entre les
différentes maisons.&lt;/p&gt;
&lt;p&gt;Contenu de l&#39;intervention :&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;
&lt;p&gt;Introduction au projet CapData Opéra&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Présentation du contexte, des besoins et objectifs du projet.&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;Avantages pour les artistes, les institutions culturelles et le public.&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Politiques culturelles, enjeux des données et mutualisation.&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Architecture de la solution&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Prérequis et processus simplifiés.&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Choix de l’architecture de la solution, expérimentation avec les
        données de l’Opéra national de Bordeaux et de la Réunion des Opéras de
        France.&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Ontologie et Spectacle Vivant&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Les fondamentaux de l’ontologie, état de l’art, BNF, &lt;a href=&quot;http://Schema.org&quot;&gt;Schema.org&lt;/a&gt;, usages
        métiers des lieux de programmations culturels.&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Présentation de l&#39;ontologie et de son application au sein de l’Opéra
        national de Bordeaux.&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Perspectives - défis et déploiement&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Principaux pièges et remèdes&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;Discussion sur les opportunités de collaboration avec la communauté
        SemWeb.pro pour faire progresser ce projet.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Objectifs de l&#39;intervention :&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Sensibiliser les participants aux principaux défis posés par la gestion
        des données au sein des établissements du spectacle vivant.&lt;/li&gt;
&lt;li&gt;Présenter les principales étapes, problématiques et réflexions
        développées lors du projet.&lt;/li&gt;
&lt;li&gt;Encourager la discussion et la collaboration entre les professionnels
        du secteur et les experts en Web sémantique.&lt;/li&gt;
&lt;/ul&gt;</description>
  <dc:date>2024-04-17T14:53+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18269561</guid>
  <title>Création d&#39;un graphe de connaissances géohistorique à partir d&#39;annuaires du commerce parisien du XIXe siècle: application aux métiers de la photographie</title>
  <link>https://cms.semweb.pro/talk/18269561</link>
  <description>&lt;p&gt;Les annuaires professionnels anciens, édités à un rythme soutenu dans de nombreuses villes
européennes tout au long des XIXe et XXe siècles, forment un corpus de sources unique par son
volume et la possibilité qu&#39;ils donnent de suivre les transformations urbaines à travers le prisme des
activités professionnelles de ses habitants, de l&#39;échelle individuelle jusqu&#39;à celle de la ville entière.&lt;/p&gt;
&lt;p&gt;L&#39;analyse spatio-temporelle d&#39;un type de commerces au travers des entrées d&#39;annuaires demande
cependant un travail considérable de recensement, de transcription et de recoupement manuels.
Pour pallier cette difficulté, cette présentation propose une approche automatique pour construire
et visualiser un graphe de connaissances géohistorique des commerces figurant dans des annuaires
anciens.&lt;/p&gt;
&lt;p&gt;Les entrées des annuaires sont préalablement identifiées dans les scans des pages d’annuaires et
OCRisées à l’aide de méthodes et d’outils de l’état de l’art. Leurs différents éléments constitutifs sont
identifiés à l&#39;aide d&#39;une approche de reconnaissance d&#39;entités nommées à base de réseau de
neurones profond. Nous avons entraîné un modèle de langue CamemBERT de sorte à lui permettre
de mieux gérer le bruit liés à l’étape d’OCR dans le texte des annuaires. Les adresses ainsi reconnues
dans les entrées sont ensuite associées à des coordonnées géographiques à l’aide d’un outil de
géocodage historique qui recherche pour chaque adresse extraite, l’adresse la plus similaire au sein
d’une base d’adresses anciennes et dont le temps valide associé est le plus proche possible de la date
de publication de l’annuaire dont l’adresse requête est extraite. Le liage des entrées similaires entre
annuaires constitue l&#39;étape principale de création de notre graphe de connaissances géohistorique,
car elle permet de dégager les logiques individuelles d&#39;évolution des commerces (déménagements,
transmissions, reprises, etc.). Pour surmonter les difficultés posées par le bruit OCR, nous proposons
d&#39;utiliser deux approches de liage : une approche logique, à base de raisonnement sur des clés et une
approche numérique qui compare les valeurs des propriétés des entrées afin de lier celles présentant
les valeurs les plus similaires. Enfin, nous proposons un outil d&#39;exploration spatio-temporelle du
graphe créé. Celui-ci permet d’explorer les données à l’aide d’une interface cartographique et d’une
frise temporelle : il permet ainsi de répondre à des questions de compétence complexes. L&#39;approche
est testée sur des annuaires du commerce parisien du XIXe siècle allant de 1800 à 1908, sur le cas des
métiers de la photographie.&lt;/p&gt;
&lt;p&gt;Liens utiles :&lt;/p&gt;
&lt;p&gt;Article détaillé : &lt;a href=&quot;https://hal.science/hal-04121643/&quot;&gt;https://hal.science/hal-04121643/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Point d’accès SPARQL : &lt;a href=&quot;https://dir.geohistoricaldata.org/&quot;&gt;https://dir.geohistoricaldata.org/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Interface de visualisation spatio-temporelle :&lt;/p&gt;
&lt;p&gt;&lt;a href=&quot;https://soduco.github.io/ic_2023_photographes_parisiens/&quot;&gt;https://soduco.github.io/ic_2023_photographes_parisiens/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Scripts pour la mise en œuvre de la chaîne de traitement :&lt;/p&gt;
&lt;p&gt;&lt;a href=&quot;https://github.com/soduco/ic_2023_photographes_parisiens&quot;&gt;https://github.com/soduco/ic_2023_photographes_parisiens&lt;/a&gt;&lt;/p&gt;</description>
  <dc:date>2024-04-22T12:09+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18269591</guid>
  <title>FranceArchives : portail de référence pour les archives françaises dans le web de données liées</title>
  <link>https://cms.semweb.pro/talk/18269591</link>
  <description>&lt;p&gt;Porté par le Service interministériel des Archives de France, FranceArchives
est le portail agrégateur national pour les archives françaises depuis 2017 et
offre une recherche fédérée dans près de 22 millions de métadonnées
archivistiques produites par près de 140 institutions. &lt;/p&gt;
&lt;p&gt;À ce titre, il est un acteur évident sinon attendu pour les archives françaises
dans le web de données liées. Cependant, l&#39;hétérogénéité des données et la description
hiérarchique des archives en font un véritable défi. Le portail a profité des
opportunités des technologies du web sémantique pour traiter les entités
personnes, institutions, lieux et thèmes, extraites des indexations figurant
dans les inventaires d&#39;archives, en les :
- Désambiguisant grâce à des URI ;
- Alignant vers les référentiels du Linked Open Data, tels que GeoNames,
  Wikidata, data.bnf et le thésaurus pour l&#39;indexation matières des archives ;
- Enrichissant avec des dates, des descriptions et des coordonnées
  géographiques.&lt;/p&gt;
&lt;p&gt;Pour pleinement intégrer FranceArchives au Linked Open Data, les données sont
converties, à partir de la base de données CubicWeb, en RDF en utilisant
l&#39;ontologie RiC-O version 0.2  publiée en février 2021. &lt;/p&gt;
&lt;p&gt;FranceArchives est le premier projet à utiliser ce modèle à grande échelle
avec un certain succès.&lt;/p&gt;
&lt;p&gt;C&#39;est également l&#39;un des premiers entrepôts de données archivistiques de
cette taille sur le Linked Open Data.&lt;/p&gt;
&lt;p&gt;Pour assurer une expérience utilisateur optimale, un graphe restreint
aux données de qualité est exposé dans l&#39;entrepôt SPARQL et peut être
exploré grâce à l&#39;outil Sparnatural. Une  ontologie, rédigée spécifiquement
pour cette instance de Sparnatural, permet le requêtage des données le plus
fin possible tout en s&#39;adaptant à l&#39;hétérogénéité des données.&lt;/p&gt;</description>
  <dc:date>2024-04-22T12:12+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411240</guid>
  <title>Création Semi-Automatisée d&#39;Ontologies et de Graphes de Connaissances chez Lettria</title>
  <link>https://cms.semweb.pro/talk/18411240</link>
  <description>Il est généralement coûteux de créer une ontologie pour un domaine et
répondant à des besoins spécifique, car il faut à la fois être un
expert du domaine visé et en même temps maîtriser les méthodes
d&#39;ingénierie des connaissances. De nombreuses ontologies existent déjà
pour une large variété de domaines, mais ces ontologies ne sont pas
forcément référencées dans des catalogues permettant leur
découvrabilité, ni adaptées au cas d&#39;utilisation visé car, soit trop
spécifiques, soit trop génériques. Ainsi, il faut souvent un ingénieur
de la connaissance dédié pour sélectionner ou mettre à jour une
ontologie pour un cas d&#39;utilisation donné. Une fois l&#39;ontologie
construite, il n&#39;est pas non plus aisé de l&#39;utiliser pour venir
peupler un graphe de connaissances, cette tâche nécessitant souvent
des approches du traitement automatique du langage naturel (TALN)
telles que l&#39;identification d&#39;entités et l&#39;extraction de relations.
Pour les entreprises, il est difficile d&#39;allouer des ressources pour
créer une ontologie et de transformer leurs documents internes en
graphe de connaissances.

Les grands modèles de langage (LLMs) promettent de s&#39;abstraire en
partie de ces contraintes. Ils sont capables de résoudre un certains
nombres de tâches de TAL et peuvent être guidé pour construire une
ontologie de domaine. Dans cet exposé, nous présenterons l&#39;approche
développée par Lettria pour créer une ontologie et peupler un graphe
de connaissances à partir de textes, de manière automatisée et
adaptable. Pour cela, nous avons défini une orchestration de prompts
et de critères afin de donner la possibilité à tout le monde de
pouvoir effectuer ces tâches. Chacun des critères générés peut être
modifié par l&#39;utilisateur afin d&#39;adapter les résultats et se
rapprocher d&#39;un objectif visé. Nous montrerons l&#39;évaluation de cette
méthode sur le benchmark académique Text2KG et nous présenterons les
premiers retour clients où cette approche a déjà été mise en place
avec succès.</description>
  <dc:date>2025-06-03T16:15+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411242</guid>
  <title>Utilisations de l’ontologie RiC-O aux Archives nationales de France</title>
  <link>https://cms.semweb.pro/talk/18411242</link>
  <description>Nous présenterons d’abord RiC-O (Records in Contexts Ontology), une ontologie de
domaine pour la description des archives. La version 1.0 de RiC-O a été publiée fin 2023
par le groupe d’experts EGAD (Expert Group on Archival Description) de l’International
Council on Archives (ICA). Il s’agit, avec le modèle conceptuel RiC-CM 1.0 qui
l’accompagne, de la première version stable et complète du standard Records in
Contexts, donc d’une étape majeure dans l’élaboration de ce standard. RiC-O est par
ailleurs désormais utilisée par de nombreux projets dans le monde. Une communauté
d’utilisateurs s’est formée, ce qui va permettre de faire émerger des pratiques
communes, des méthodes applicables à certains cas d’utilisation, des outils. Nous
montrerons ensuite comment nous utilisons cette ontologie aux Archives nationales de
France (AnF). Nous ferons un tour d’horizon rapide des projets en cours, ce qui nous
permettra notamment de mettre en évidence les enjeux de qualité et ceux relatifs à
l’évolution des services rendus aux utilisateurs des métadonnées archivistiques
produites par les AnF. Nous évoquerons en particulier : l’évaluation de la qualité des
graphes et les défauts des métadonnées source ; la construction d’interfaces
d’exploration et de recherche dans ces graphes ; l’enrichissement, la production et la
publication des référentiels sémantisés de l’institution ; le projet de recherche
NER4Archives mené avec l’Inria (reconnaissance d’entités nommées dans les fichiers de
métadonnées des AnF, avec une étape de liage des entités nommées qui exploite
plusieurs graphes de connaissances).

Liens :
Sur RiC-O : voir la page https://www.ica.org/fr/resource/records-in-contexts-ontology/.
Sur l’exploration d’un graphe de connaissances RiC-O produit par les AnF : voir le
démonstrateur des Archives nationales (qui sera mis à jour cet été).
Sur les référentiels des AnF : voir ce dépôt sur GitHub (dans lequel on trouvera une
nouvelle release bientôt).
Sur NER4Archives : voir cette présentation (mai 2024).</description>
  <dc:date>2024-11-21T22:51+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411243</guid>
  <title>L&#39;impact de l&#39;utilisation des technologies du Web Sémantique pour des institutions</title>
  <link>https://cms.semweb.pro/talk/18411243</link>
  <description>&lt;p&gt;Notre institution, la &lt;a href=&quot;https://sapa.swiss/&quot;&gt;Fondation SAPA&lt;/a&gt;, est un centre de conservation d’archives et un centre de compétences sur les arts de la scène suisse. Elle a un mandat au niveau national dans ce domaine même si elle travaille en subsidiarité avec les autres institutions. Dans ce cadre, elle s’est engagée depuis 2014 dans un projet de web sémantique qui a aboutit en 2021 à la mise en ligne d’un nouveau portail (voir description ci-dessous) qui suit les recommandations en matière de Linked Open Data.&lt;/p&gt;
&lt;p&gt;Le passage d’outils de gestion traditionnels de nos informations à des outils sémantiques a de multiples conséquences, et nous sommes toujours en train d’en évaluer les apports et les difficultés. L’intérêt de ce passage n’est pas vraiment remis en cause à l’interne mais les moyens nécessaires à sa mise en œuvre restent toujours source de débats. Par ailleurs, nous ne disposons pas de mécanismes de suivi de réutilisations de nos données et en ce sens nous avons du mal à mesurer l’intérêt des publics pour ces dernières.  Notre présentation lors de votre conférence pourrait nous permettre d’en offrir un bilan provisoire.&lt;/p&gt;
&lt;p&gt;Portail&lt;/p&gt;
&lt;p&gt;La Fondation SAPA a mis en ligne en 2021 son nouveau portail de connaissances &lt;a href=&quot;https://www.performing-arts.ch&quot;&gt;Performing-Arts.ch&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Ce portail donne accès à la fois à des informations générales sur les arts de la scène suisses (qui, quoi, où) et sur les archives conservées par notre institution.&lt;/p&gt;
&lt;p&gt;Il s’agit d’un portail RDF natif qui utilise la version open source du logiciel &lt;a href=&quot;https://hub.docker.com/r/metaphacts/glam-community&quot;&gt;Metaphactory&lt;/a&gt;. La maintenance de notre système est assurée par un &lt;a href=&quot;https://www.sari.uzh.ch/en.html&quot;&gt;service de l’Université de Zürich&lt;/a&gt;. Nous ne disposons pas d’informaticienne/informaticien au sein de notre fondation.&lt;/p&gt;
&lt;p&gt;Un &lt;a href=&quot;https://www.performing-arts.ch/sparql&quot;&gt;SPARQL Endpoint&lt;/a&gt; est disponible.&lt;/p&gt;
&lt;p&gt;Notre modèle de données est en cours de publication. Nous bénéficions pour cela des travaux de l’entreprise Sparna. Sont déjà disponibles : notre &lt;a href=&quot;http://ontology.performing-arts.ch/spao/index-en.html&quot;&gt;ontologie maison&lt;/a&gt; et notre &lt;a href=&quot;http://shapes.performing-arts.ch/collections/&quot;&gt;modèle de données&lt;/a&gt; sur nos collections. Nous avons, par ailleurs, avec l’aide du même prestataire, publié nos &lt;a href=&quot;http://vocab.performing-arts.ch/&quot;&gt;vocabulaires contrôlés&lt;/a&gt;.&lt;/p&gt;
&lt;p&gt;De nombreuses ontologies classiques sont utilisées pour la modélisation mise en place : &lt;a href=&quot;http://iflastandards.info/ns/fr/frbr/frbroo&quot;&gt;FRBRoo&lt;/a&gt;, &lt;a href=&quot;http://www.cidoc-crm.org/cidoc-crm/&quot;&gt;CIDOC-CRM&lt;/a&gt;, &lt;a href=&quot;http://rdaregistry.info/Elements/u/&quot;&gt;RDA&lt;/a&gt;, &lt;a href=&quot;http://www.loc.gov/premis/rdf/v1#&quot;&gt;Premis&lt;/a&gt;, &lt;a href=&quot;http://www.w3.org/2000/01/rdf-schema#&quot;&gt;RDFS&lt;/a&gt;, &lt;a href=&quot;http://www.w3.org/2004/02/skos/core#&quot;&gt;SKOS&lt;/a&gt;, &lt;a href=&quot;https://www.ebu.ch/metadata/ontologies/ebucore#&quot;&gt;EBUCore&lt;/a&gt;, &lt;a href=&quot;http://schema.org/&quot;/&gt;&lt;a href=&quot;http://Schema.org&quot;&gt;Schema.org&lt;/a&gt;.&lt;/p&gt;
&lt;p&gt;Mais deux au moins sont plus spécifiques :&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Tout d’abord &lt;a href=&quot;https://www.ica.org/standards/RiC/ontology#&quot;&gt;Records in Contexts&lt;/a&gt; qui est publiée par le Conseil internationale des archives et dont la version stable 1.0 a été publiée en novembre dernier. Nous avons été une des premières institutions à implémenter cette ontologie dans un outil en production. Nous avons publié à ce sujet un &lt;a href=&quot;https://doi.org/10.55790/journals/ressi.2024.e1511&quot;&gt;article&lt;/a&gt; en début de cette année.&lt;/li&gt;
&lt;li&gt;Une proposition de modélisation des arts de la scène (au moyen de cidoc et frbroo) qui a aussi fait l’objet de &lt;a href=&quot;https://universityheritage.eu/en/building-a-database-for-performing-arts-in-switzerland/&quot;&gt;publications&lt;/a&gt; &lt;a href=&quot;https://orcid.org/0009-0003-7448-7835&quot;&gt;scientifiques&lt;/a&gt;.&lt;/li&gt;
&lt;/ul&gt;</description>
  <dc:date>2024-11-21T22:52+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411249</guid>
  <title>Les pistes ouvertes par RDF 1.2 pour l’indexation des règles juridiques en Web sémantique</title>
  <link>https://cms.semweb.pro/talk/18411249</link>
  <description>&lt;p&gt;La modélisation des règles juridiques, issues de ressources normatives ou jurisprudentielles, est un
champ connu de recherche, balisé par des réalisations majeures et pour la plupart anciennes, parmi
lesquelles les initiatives des offices de publication ont joué un rôle directeur et en particulier celles
de l’OPOCE au niveau européen, pour intégrer très tôt les outils du web sémantique. Mais, en
termes de cas d’usage comme en nombre de réalisations concrètes, ce domaine et les corpus de
connaissance qui le constituent restent, en dépit de leur importance pratique, à l’écart du grand
mouvement actuel d’application des nouveaux outils désignés sous le terme englobant d’IA.
La présentation proposée partira d’une analyse des principales limites de l’état de l’art pour
ébaucher une synthèse des besoins métiers, fonctionnels et techniques requis par la modélisation des
règles juridiques, abordée sous l’angle des exigences formelles résultant des standards du Web
sémantique.&lt;/p&gt;
&lt;p&gt;Partant du constat de divers blocages, limites techniques ou carences des ressources aujourd’hui
disponibles, la présentation va tenter de mettre en perspective ce que la nouvelle norme RDF 1.2 en
cours de mise au point par le W3C (aussi connue comme RDF STAR) paraît ouvrir comme pistes et
mécanismes inédits pour lever certains de ces verrous technologiques identifiables.
Au travers de l’analyse de quelques problèmes, comme ceux posés par la gestion des diachronies et
des ressorts de compétence ou d’application, le repérage de règles résultant d’énoncés discontinus
répartis entre des corpus multiples ou la définitions d’ontologies « au sens de... » pour traduire et
déterminer les limites d’application des règles de droit par domaine de spécialité, la présentation
visera à évaluer ce que les transformations que RDF 1.2 annoncent comme pistes nouvelles pour la
mise en œuvre, dans le domaine juridique, de la troisième génération du Web sémantique tel qu’il se
prépare, avec les nouveaux standards du W3C en cours de mise au point.&lt;/p&gt;
&lt;p&gt;Auteur :
Jean-Yves ROSSI est conseiller d’État. Ingénieur de formation, il est membre de l’Advisory
Committee du W3C et participe à plusieurs groupes de travail du Consortium. Il prépare une thèse
sur la modélisation des règles juridiques en Web sémantique, dans le cadre de l’école doctorale ED
EM2PSI - Économie, Management, Mathématiques, Physique et Sciences informatiques de CY
Paris Cergy Université.&lt;/p&gt;</description>
  <dc:date>2024-11-21T22:52+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411248</guid>
  <title>Formaliser la demande et l&#39;autorisation d&#39;accès dans l&#39;écosystème Solid</title>
  <link>https://cms.semweb.pro/talk/18411248</link>
  <description>&lt;p&gt;&lt;a href=&quot;https://solidproject.org/&quot;&gt;Solid&lt;/a&gt; est un ensemble de spécifications qui
définissent un contrôle d&#39;accès appliqué aux données liées. L&#39;une des
utilisations phares est la constitution de stockages de données
personelles, permettant de donner à une personne le contrôle du partage des
données la concernant. Le contrôle d&#39;accès est exprimé dans Solid de deux
manières possibles, &lt;a href=&quot;https://solidproject.org/TR/wac&quot;&gt;WAC&lt;/a&gt; (Web Access
Control) et &lt;a href=&quot;https://solidproject.org/TR/acp&quot;&gt;ACP&lt;/a&gt; (Access Control Policy),
et c&#39;est ce dernier sur lequel cette présentation va se concentrer.&lt;/p&gt;
&lt;p&gt;Le contrôle d&#39;accès via ACP est centré sur l&#39;identité, materialisée par le
&lt;a href=&quot;https://w3c.github.io/WebID/spec/identity/index.html&quot;&gt;WebID&lt;/a&gt;, et déléguée
à un composant du système selon les normes du domaine (à savoir
&lt;a href=&quot;https://solidproject.org/TR/oidc&quot;&gt;Solid-OIDC&lt;/a&gt;, une extension de &lt;a href=&quot;https://openid.net/&quot;&gt;OpenID
Connect&lt;/a&gt;). Selon les cas d&#39;uilisation, trois approches
de Solid-OIDC sont possibles, toutes ayant pour résultat l&#39;obtention par le
client d&#39;un jeton d&#39;identité portant la signature cryptographique de son
émetteur, ce qui permet au client d&#39;accéder au nom de leur propriétaire à
des resources protégées (autrement dit, des données sur son stockage
personnel).&lt;/p&gt;
&lt;p&gt;Une fois la requête authentifiée, le graphe de permission ACP est évalué
pour autoriser ou non l&#39;accès. En plus de ses mécanismes de base, ACP
définit des points d&#39;extension via lesquels définir de nouveaux attributs
d&#39;évaluation des permissions. Sur ce point d&#39;extension ont été définies les
Access Requests/Access Grants. Celles- forment un mécanisme formalisant la
demande et l&#39;autorisation d&#39;accès à une ressource par un échange de
&lt;a href=&quot;https://www.w3.org/TR/vc-data-model/&quot;&gt;Verifiable Credentials&lt;/a&gt;. Les Access
Request/Access Grants répondent à un principe de moindre permission, en
créant un contexte privilégié unifié dans lequel le propriétaire de donnée
peut autoriser l&#39;accès à ses ressources de manière temporaire et facilement
révocable, qui permet à un parti non-privilégié d&#39;obtenir l&#39;accès à des
resources sans avoir besoin de modifier les métadonnées d&#39;accès.&lt;/p&gt;
&lt;p&gt;L&#39;objet de cette présenation sera de couvrir les modes d&#39;authentification
définis par Solid-OIDC selon les cas d&#39;utilisation, et d&#39;expliquer comment
ceux-cis s&#39;articulent avec les Access Requests et Access Grants.&lt;/p&gt;
&lt;p&gt;L&#39;auteur: Nicolas Seydoux, ingénieur chez &lt;a href=&quot;https://www.inrupt.com/&quot;&gt;Inrupt&lt;/a&gt;.
Je suis particulièrement impliqué dans la conception et le développement
d&#39;outils à destination des développeurs pour permettre la création
d&#39;applications basées sur les standards de Solid, avec un intérêt tout
particulier sur l&#39;authentification et l&#39;autorisation. Les librairies
développées par Inrupt pertinentes dans le cadre de cette présentation
incluent &lt;code&gt;@inrupt/solid-client&lt;/code&gt;, &lt;code&gt;@inrupt/solid-client-access-grants&lt;/code&gt; ,
&lt;code&gt;@inrupt/solid-client-authn-node&lt;/code&gt; et &lt;code&gt;@inrupt/solid-client-authn-browser&lt;/code&gt;
 sur NPM en Javascript, et &lt;code&gt;com.inrupt.client:inrupt-client-bom&lt;/code&gt; sur Maven
Central en Java. Des démonstrations de l&#39;utilisation de ces différentes
libraries sont données dans &lt;a href=&quot;https://docs.inrupt.com/&quot;&gt;notre documentation&lt;/a&gt;.&lt;/p&gt;
&lt;p&gt;Le &lt;a href=&quot;https://homepage.zwifi.eu/slides/2024/semwebpro/&quot;&gt;support de présentation&lt;/a&gt; est en ligne.&lt;/p&gt;</description>
  <dc:date>2024-11-21T22:53+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411245</guid>
  <title>Données ouvertes du Parlement Européen - retour d&#39;expérience sur la mise au point et la diffusion d&#39;un &quot;graphe de connaissances&quot; institutionnel</title>
  <link>https://cms.semweb.pro/talk/18411245</link>
  <description>&lt;p&gt;Entrant dans sa 10ème législature (2024-2029), le Parlement européen est
désormais composé de 720 membres élus pour 5 ans, répartis en 7 groupes
politiques, qui siègeront, entre autres, au sein de commissions
parlementaires permanentes et de délégations (
&lt;a href=&quot;https://facts-and-figures.europarl.europa.eu/&quot;&gt;https://facts-and-figures.europarl.europa.eu/&lt;/a&gt;). Durant la 9ème législature,
plus de 28000 votes ont eu lieu, plus de 35000 amendements ont été débattus
pendant les 1944 heures de séances plénières (
&lt;a href=&quot;https://www.europarl.europa.eu/plenary/en/bilan-statistic.html&quot;&gt;https://www.europarl.europa.eu/plenary/en/bilan-statistic.html&lt;/a&gt;).&lt;/p&gt;
&lt;p&gt;Ces quelques chiffres donnent un aperçu des données disponibles dans
le &lt;em&gt;portail
des données ouvertes du Parlement Européen
&lt;/em&gt;. Ce portail propose un accès à des
données concernant les députés européens, la structure et l&#39;évolution des
commissions parlementaires, les textes adoptés par le Parlement européen,
en session plénière avec leur ordre du jour et les métadonnées des
documents associés, ainsi que les résultats des votes sur les amendements,
amendement par amendement.&lt;/p&gt;
&lt;p&gt;Ces données sont évidemment gérées au sein de l&#39;institution depuis
longtemps. L&#39;originalité et la force de ce projet tiennent à la conception
et à la diffusion d&#39;un &quot;graphe de connaissances&quot; unifié, connectant les
données d&#39;une vingtaine d&#39;applications internes, basé sur une sémantique
maximisant l&#39;interopérabilité, garantissant la qualité des données et
correctement
documenté .&lt;/p&gt;
&lt;p&gt;Les 242 jeux de données proposés, soit en téléchargement, soit accessibles
par API (&quot;application programming interface&quot;) totalisent environ 60
millions de triplets actuellement et décrivent les métadonnées d&#39;environ
180000 documents déclinés en plus d&#39;1 million de variantes linguistiques au
total, 5000 eurodéputés, 3500 comités et plus de 30000 activités&lt;/p&gt;
&lt;p&gt;La présentation donnera un retour d&#39;expérience sur le déploiement de ce
projet, en particulier :&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;l&#39;interopérabilité sémantique, basée sur les ontologies de journaux
   officiels ELI  et ELI-DL&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;(European Legislation Identifier for Draft Legislation), ainsi que
sur les tables
   d&#39;autorités partagées des institutions Européennes
   .
   - l&#39;utilisation de SHACL (Shapes Constraints Language) comme langage de
   modélisation opérationnel, permettant une spécification du contenu des jeux
   de données, un contrôle qualité des données, et la production d&#39;une
   documentation pour les réutilisateurs
   - le déploiement d&#39;un triplestore AWS Neptune comme base de gestion et
   de diffusion d&#39;un graphe de connaissances d&#39;environ 60 millions de triplets
   actuellement
   - l&#39;utilisation de la gestion de provenance avec PROV-O, et des graphes
   nommés, assurant la traçabilité des données diffusées
   - le déploiement de l&#39; API REST du portail
    créée
   en utilisant la technique du &quot;framing&quot; JSON-LD&lt;/p&gt;</description>
  <dc:date>2024-11-21T22:48+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411278</guid>
  <title>Etat de l&#39;activité Web Sémantique au W3C</title>
  <link>https://cms.semweb.pro/talk/18411278</link>
  <description>&lt;p&gt;Cette présentation fait suite à celle que j&#39;ai faite l&#39;an dernier à SemWeb.pro, où je présentais le regain d&#39;intérêt pour les thématiques &quot;données liées&quot; et &quot;web sémantique&quot; au sein du consortium W3C.&lt;/p&gt;
&lt;p&gt;Je présenterai ici les avancées accomplies en un an par les différents groupes de travail.&lt;/p&gt;
&lt;p&gt;Je présenterai enfin les groupes en cours de création et les futurs standards sur lesquels ces groups vont travailler.&lt;/p&gt;
&lt;p&gt;Voir le &lt;a href=&quot;https://champin.net/2024/semwebpro/&quot;&gt;support de présentation&lt;/a&gt;.&lt;/p&gt;</description>
  <dc:date>2024-11-21T22:45+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411297</guid>
  <title>Présentation du logiciel libre Sparqlexplorer</title>
  <link>https://cms.semweb.pro/talk/18411297</link>
  <description>&lt;p&gt;&lt;a href=&quot;https://sparqlexplorer.app&quot;&gt;SparqlExplorer&lt;/a&gt; est un logiciel libre qui permet de naviguer dans les données d&#39;un point d&#39;accès SPARQL comme s&#39;il s&#39;agissait d&#39;un portail web, sans écrire de requête.&lt;/p&gt;
&lt;p&gt;Voir par exemple les &lt;a href=&quot;https://sparqlexplorer.app/#/?endpoint=https%3A%2F%2Fsparql.capdataopera.fr%2F&quot;&gt;données de CapDataOpéra avec SparqlExplorer&lt;/a&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;développement sur &lt;a href=&quot;https://forge.extranet.logilab.fr/open-source/SemWeb/sparqlexplorer/&quot;&gt;forge logilab/sparqlexplorer&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;</description>
  <dc:date>2024-11-15T12:04+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411292</guid>
  <title>Évaluation d&#39;un graphe de connaissances géo-historique d&#39;adresses créé à partir de sources multiples</title>
  <link>https://cms.semweb.pro/talk/18411292</link>
  <description>Création d&#39;une ontologie pour la modélisation des entités géographiques, des relations qui les lient et leur évolution temporelle. Afin de valider ce modèle, nous avons peuplé l’ontologie avec des données provenant de sources hétérogènes : des données géographiques contemporaines (OpenStreetMap, Base Adresse Nationale), des plans anciens de la ville de Paris (plan d’Andriveau, plan municipal, cadastres napoléoniens…).</description>
  <dc:date>2024-11-14T16:27+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411293</guid>
  <title>L&#39;utilisation du standard DCAT à l&#39;Insee</title>
  <link>https://cms.semweb.pro/talk/18411293</link>
  <description>&lt;p&gt;L’Institut national de la statistique et des études économiques (Insee) joue un rôle crucial en collectant, produisant, analysant et diffusant de nombreuses informations sur l’économie et la société françaises. Face à l’ampleur de cette mission, l’Insee doit relever un défi majeur : assurer la visibilité et la découvrabilité de ses données.&lt;/p&gt;
&lt;p&gt;L&#39;Insee a recours aux vocabulaires RDF pour gérer une grande partie de ses métadonnées relatives aux processus métiers. Le jeu de données constituant le point d&#39;entrée principal des résultats statistiques, il est donc essentiel que sa description soit facilement accessible et interopérable avec d&#39;autres catalogues de données.&lt;/p&gt;
&lt;p&gt;Afin d&#39;atteindre cet objectif, l&#39;Insee a adopté le Data Catalog Vocabulary (DCAT), un standard du web sémantique publié par le W3C. En s&#39;appuyant sur des classes permettant de définir un catalogue (Catalog), un jeu de données (Dataset) ou encore un fichier (Distribution, représentant un moyen d’accéder à un Dataset, par exemple via un fichier CSV téléchargeable) et sur des extensions du standard DCAT, dont StatDCAT-AP, une extension aux données statistiques publiée par la Commission Européenne, l&#39;Insee vise des premières publications compatibles avec ces standards d&#39;ici fin 2024. Cela lui permettra de rendre ses jeux de données interopérables avec des portails comme la plateforme ouverte des données publiques françaises (data.gouv.fr) ou le portail officiel des données européennes (data.europa.eu), augmentant ainsi la visibilité de ses travaux statistiques.&lt;/p&gt;
&lt;p&gt;Pour faciliter cette transition, l&#39;Insee s&#39;est doté de son propre outil de gestion de métadonnées DCAT, l&#39;application Bauhaus, publiée en open source. Cet outil a été conçu pour que les étapes de conception et de construction de ces métadonnées ne soient plus réservées aux experts du standard. Grâce à Bauhaus, l’Insee peut gérer efficacement ses métadonnées, rendant la documentation et l&#39;accès aux jeux de données plus simples et plus accessibles pour une plus large catégorie d’agents. En intégrant ces technologies avancées, l&#39;Insee renforce son engagement à améliorer l&#39;accessibilité et la visibilité de ses données statistiques, répondant ainsi aux besoins croissants des utilisateurs en quête d&#39;informations structurées, fiables et interopérables.&lt;/p&gt;
&lt;p&gt;Liens :&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Le standard &lt;a href=&quot;https://www.w3.org/TR/vocab-dcat-3/&quot;&gt;DCAT&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;Le profile d&#39;application &lt;a href=&quot;https://joinup.ec.europa.eu/collection/semic-support-centre/solution/dcat-application-profile-data-portals-europe&quot;&gt;DCAT-AP&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;L&#39;extension statistique &lt;a href=&quot;https://joinup.ec.europa.eu/collection/semic-support-centre/solution/statdcat-application-profile-data-portals-europe&quot;&gt;StatDCAT-AP&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;L&#39;instance de démonstration de l&#39;&lt;a href=&quot;https://gestion-metadonnees-front.demo.insee.io/datasets&quot;&gt;outil de gestion DCAT &quot;Bauhaus&lt;/a&gt; (à venir)&lt;/li&gt;
&lt;li&gt;&lt;a href=&quot;https://github.com/InseeFr/Bauhaus&quot;&gt;Github Bauhaus&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href=&quot;https://rdf.insee.fr/&quot;&gt;Insee SPARQL Endpoint&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Auteur :&lt;/p&gt;
&lt;p&gt;Guillaume Duffes a travaillé pendant 8 ans (2011-2019) sur la mise en place d’un référentiel de métadonnées à l’Insee en mettant en œuvre diverses normes et standards dont ceux du Web Sémantiques, et notamment les vocabulaires W3C. Il est revenu sur ces activités à l’Insee depuis septembre 2024.&lt;/p&gt;</description>
  <dc:date>2024-11-15T11:55+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411290</guid>
  <title>Liages entre Ontologies et Objets : une clé pour modéliser retrouver la connaissance dans l’industrie</title>
  <link>https://cms.semweb.pro/talk/18411290</link>
  <dc:date>2024-11-14T16:30+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411295</guid>
  <title>Présentation de Semgraph</title>
  <link>https://cms.semweb.pro/talk/18411295</link>
  <description>&lt;p&gt;SemGraph est à mi-chemin entre une méthode et une suite logicielle pour l&#39;assemblage et l&#39;exploitation de graphes de connaissances selon les standards du Web sémantique.&lt;/p&gt;
&lt;p&gt;En s&#39;appuyant sur les standards du Web et une architecture décentralisée, les outils indépendants de la suite SemGraph se complètent pour permettre la mise en réseau de données issues de multiples applications disjointes.&lt;/p&gt;
&lt;p&gt;Les graphes de connaissances ainsi constitués apportent une valeur inégalée en faisant apparaître des relations auparavant invisibles et en servant de base à de multiples applications d&#39;intelligence artificielle.&lt;/p&gt;
&lt;p&gt;Voir le site &lt;a href=&quot;https://semgraph.logilab.fr&quot;&gt;semgraph.logilab.fr&lt;/a&gt;&lt;/p&gt;</description>
  <dc:date>2024-11-15T11:58+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411355</guid>
  <title>Exploiter les graphes de connaissances pour la découverte de jeux de données du système terrestre</title>
  <link>https://cms.semweb.pro/talk/18411355</link>
  <description>&lt;p&gt;Grâce aux initiatives de la science ouverte, un nombre croissant de jeu de 
données d’observation des compartiments du système terrestre sont désormais
normalisés et disponibles sur le web. La norme ISO 19115a été largement
adoptée  pour coder les aspects spatio-temporels des observations du système
terrestre. Cependant, cette norme ne spécifie pas les multiples dimensions des
observations, notamment les caractéristiques d&#39;intérêt, les propriétés
observables et la provenance. En conséquence, les chercheurs intéressés par
les études multidisciplinaires sur le système terrestre peuvent passer à côté
d&#39;ensembles de données significatifs lorsqu&#39;ils interrogent indépendamment des
portails de données spécifiques à un domaine.Nous proposons un nouveau système
de découverte d&#39;ensembles de données basé sur les ontologies DCAT, ainsi que
sur le modèle de métadonnées provenant de plusieurs portails de données,
représentant chacun un compartiment du système terrestre. Le modèle de
métadonnées est exploité simultanément pour traiter les hétérogénéités
sémantiques et structurelles et pour construire un graphe de connaissances
descriptif expliquant comment les ensembles de données récupérés sont
sémantiquement liés à la recherche de l&#39;utilisateur. Nous présenterons  la
mise en œuvre de ce système, son application à d’autres cas d’utilisation.&lt;/p&gt;
&lt;p&gt;Voir la démonstration sur &lt;a href=&quot;https://purl.org/earthsystemdatasetdiscovery&quot;&gt;https://purl.org/earthsystemdatasetdiscovery&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Et un article disponible sur HAL &lt;a href=&quot;https://hal.science/ESPACE-DEV/hal-04823866v1&quot;&gt;https://hal.science/ESPACE-DEV/hal-04823866v1&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Présentateur&lt;/p&gt;
&lt;p&gt;Vincent Armant ingénieur en Ingénierie des connaissance à l&#39;Institut de
Recherche pour le Développement.&lt;/p&gt;</description>
  <dc:date>2025-12-05T16:32+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411357</guid>
  <title>Faciliation de l&#39;interopérabilité des plateformes de circuits-courts à l&#39;aide du standard du DataFoodConsortium</title>
  <link>https://cms.semweb.pro/talk/18411357</link>
  <description>&lt;p&gt;Le standard du Data Food Consortium est construit à l’aide des
technologies du web sémantique et facilite l’interopérabilité
entre acteurs des circuits courts. Ce standard est composé de deux
ontologies et de plusieurs taxonomies. Le standard est libre,
construit par une communauté d’acteurs divers (plateforme de
circuits-courts, d’aide à la gestion culturale, aide à
l’étiquetage des produits, etc.) et continue d’évoluer grâce
aux cas d’usage levés par les parties prenantes.&lt;/p&gt;
&lt;p&gt;En facilitant l’interopérabilité des plateformes de
circuits-courts le standard aide par exemple les producteurs dans la
gestion de leur distribution. Les producteurs utilisent en général
plusieurs plateformes de vente en circuits-courts pour distribuer
leurs produits. Ces plateformes sont construites de manière
indépendante ce qui oblige les producteurs à gérer plusieurs
plateformes, plusieurs catalogues de produits et plusieurs sources de
commandes. Ce manque de coopération entre plateformes rend difficile
la gestion de la distribution et des stocks pour les producteurs.&lt;/p&gt;
&lt;p&gt;Le standard permet également de mutualiser des commandes entre
acteurs afin d’optimiser la logistique. En effet, en augmentant le
volume de commande transporté dans les camions on diminue les coûts
de distribution et la pollution générée par les livraisons. L’un
des problèmes majeurs des circuits courts est le manque de
coopération entre acteurs fautes d’outils interopérables.&lt;/p&gt;
&lt;p&gt;En plus des ressources sémantiques, des connecteurs pour plusieurs
langages de programmation ont été développés pour faciliter la
mise en œuvre du standard dans les outils numériques des différents
acteurs. Ces connecteurs offrent une interface de programmation pour
manipuler les données échangées dans le cadre du standard. Le code
source de ces connecteurs est généré en suivant les principes de
l’ingénierie dirigée par les modèles.&lt;/p&gt;
&lt;p&gt;Actuellement, le standard décrit efficacement le cas d’usage de la
gestion de catalogues et de commandes, et nous avons entamé des
travaux sur la logistique à l’aide de partenaire logistique. Notre
enjeu actuel est de promouvoir le standard et l’utilisation des
technologies associées auprès des plateformes pour arriver à une
utilisation à plus grande échelle et confronter le standard à la
réalité du métier.&lt;/p&gt;
&lt;p&gt;Lien utiles : &lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a href=&quot;https://www.datafoodconsortium.org/&quot;&gt;https://www.datafoodconsortium.org/&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href=&quot;https://docs.dfc-standard.org/dfc-standard-documentation/&quot;&gt;https://docs.dfc-standard.org/dfc-standard-documentation/&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href=&quot;https://github.com/datafoodconsortium&quot;&gt;https://github.com/datafoodconsortium&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Auteur : Baptiste Darnala est data scientist pour la société Elzeard
et titulaire d&#39;une thèse de docteur où il a travaillé sur
l&#39;utilisation des méthodes de web sémantique et d&#39;apprentissage pour
aider à la planification des cultures maraîchères. Il travaille sur
le projet du DataFoodConsortium en aidant sur la construction des
différentes ressources sémantiques.&lt;/p&gt;</description>
  <dc:date>2025-12-05T16:43+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411358</guid>
  <title>Outils et mécanisme d’indexation pour la recherche et la découverte de données dans un écosystème Solid</title>
  <link>https://cms.semweb.pro/talk/18411358</link>
  <description>&lt;p&gt;Nous proposons de présenter des travaux sur l’indexation et son exploitation
dans le contexte du web sémantique et en particulier du projet Solid/Linked
Web Storage du W3C. Nous avons conçu un vocabulaire basé sur les shapes SHACL
qui permet d’indexer les données à différentes échelles. Nous avons aussi
développé un moteur de requêtage en TypeScript capable de parcourir ces index
et trouver des résultats qui valident une certaine shape fournie en entrée.&lt;/p&gt;
&lt;p&gt;L’indexation permet de grandement accélérer la recherche de données. La
spécification Solid actuelle n’inclue pas de capacité d’indexation côté
serveur. Sans modifier la spécification il est possible d’ajouter cette
capacité côté serveur à l’aide d’un agent ou directement côté client. Dans les
deux cas il est nécessaire de formaliser cette capacité d’indexation dans un
protocole dit « client-client ».&lt;/p&gt;
&lt;p&gt;Nos travaux ont débuté dans le cadre d’une coopération entre l’INRIA et
l’entreprise française Startin’Blox il y a plus de deux ans. Nous avons montré
comment ces index ont permis de solutionner un problème de recherche
décentralisée dans le contexte d’applications Solid. Dans l’une de nos
démonstrations les index étaient répartis sur 32 serveurs Solid. Un index
fédéré était également présent sur un serveur de fédération. Ces index étaient
interrogés selon les critères de recherche exprimés côté client.&lt;/p&gt;
&lt;p&gt;Aujourd’hui le moteur de requêtage a été réécrit et utilise désormais un
validateur SHACL (rdf-validate-shacl). Cette nouvelle implémentation présente
l&#39;avantage de ne pas être fortement couplée aux index. Le moteur se contente
de valider des shapes sur les entrées d&#39;index fournies par une stratégie de
requêtage. De plus cette implémentation doit permettre de profiter pleinement
de l&#39;expressivité de SHACL.&lt;/p&gt;
&lt;p&gt;Le moteur de requêtage est basé sur la bibliothèque TypeScript Semantizer.
Cette bibliothèque en cours de réécriture permet de manipuler des datasets RDF
à l’aide de mixins. Ces mixins fournissent des méthodes pour manipuler les
quads présents dans des datasets. Un certain nombre de mixin sont fournis et
les clients peuvent définir leur propre mixin. Un générateur de code permet de
générer le code source de mixins « basiques » à partir de shape SHACL.&lt;/p&gt;
&lt;p&gt;Auteur : Maxime Lecoq-Gaillard est ingénieur de recherche et développement
titulaire d&#39;un master de l&#39;ISTIC en architecture logicielle (Université de
Rennes 1). Coprésident de Data Food Consortium, directeur technique chez
AlmaFood, il porte le projet Mycelium : un ensemble d’applications Solid et
libres pour les paysan⋅ne⋅s.&lt;/p&gt;
&lt;p&gt;Liens utiles :&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a href=&quot;https://github.com/semantizer/semantizer-typescript/tree/dev&quot;&gt;https://github.com/semantizer/semantizer-typescript/tree/dev&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href=&quot;https://www.datafoodconsortium.org/&quot;&gt;https://www.datafoodconsortium.org/&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href=&quot;https://almafood.fr/&quot;&gt;https://almafood.fr/&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;</description>
  <dc:date>2025-12-05T16:52+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411359</guid>
  <title>Localiser des documents en bibliothèque grâce à la sémantisation</title>
  <link>https://cms.semweb.pro/talk/18411359</link>
  <description>&lt;p&gt;La Bibliothèque publique d&#39;information a mis en place une cartographie
permettant de localiser les documents dans la bibliothèque. Elle exploite
les données sémantisées du plan de classement, qui donne à voir l’ensemble
des sujets couverts et définit l’implantation des collections. Grâce aux
données sémantisées, des rebonds par thématiques sont possibles et offrent
une navigation dans les espaces et les collections plus intuitive.&lt;/p&gt;
&lt;p&gt;Voir l&#39;application sur &lt;a href=&quot;https://explorezlabpi.bpi.fr&quot;&gt;https://explorezlabpi.bpi.fr&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Auteur : Théo Bourdilleau, responsable des projets de sémantisation de la
classification et de cartographie pour la Bibliothèque publique
d&#39;information.&lt;/p&gt;</description>
  <dc:date>2025-12-05T16:58+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411360</guid>
  <title>Grafhydro : la connexion sémantique au service de la gestion des connaissances en ingénierie hydraulique</title>
  <link>https://cms.semweb.pro/talk/18411360</link>
  <description>&lt;p&gt;Le Centre d’Ingénierie Hydraulique (CIH) d’EDF Hydro a lancé en novembre 2023 une démarche afin de mieux tirer parti du numérique. Une meilleure interconnexion des données utilisées est un sujet majeur. Pour cela, nous avons lancé, début 2024, le projet « Grafhydro » qui vise à connecter sémantiquement les données utiles à l’ingénierie hydraulique. Cette communication a pour objectif de présenter notre démarche, les résultats obtenus et les défis actuels.&lt;/p&gt;
&lt;p&gt;En partant de zéro, nous avons itéré pour aboutir à l’architecture technique jointe, structurée en quatre grandes étapes. La première consiste à définir les ontologies et les conventions de nommage des URI. Nous avons également travaillé à l’intégration des modélisations spécifiées dans les Data Transfer Objects (DTO) de notre datalake existant, et aussi notre glossaire interne qui s’appuie sur Apache ATLAS. Cette modélisation est accessible à la fois via Git et dans notre base graphe.&lt;/p&gt;
&lt;p&gt;La deuxième étape consiste à mettre en œuvre l’ontologie à partir de nos sources de données, et de procéder à des alignements entre sources de données. À ce jour, environ 70 sources différentes ont été modélisées, générant près de 35 millions de triplets. Ces triplets sont stockés au format RDF, de manière versionnée, en utilisant un stockage de type S3, Git et Python/DVC.&lt;/p&gt;
&lt;p&gt;En troisième étape, nous générons le graphe et le rendons accessible. Pour notre premier prototype, nous avons utilisé le framework open source CubicWeb. En 2025, nous avons testé la migration sous GraphDB, ce qui nous a permis de constater l’intérêt du format pivot RDF.&lt;/p&gt;
&lt;p&gt;Enfin, la quatrième étape est de rendre accessible les informations. Pour cela, nous nous appuyons sur deux services. Le premier est une vue encyclopédique (cf. pièce jointe), ce qui permet de voir la définition et les connexions des instances et ontologies manipulées. Le second est une IHM de visualisation métier des données sous forme de tableaux ou de cartes (cf. pièce jointe).&lt;/p&gt;
&lt;p&gt;Nous pourrons partager sur les défis relevés et en cours. Aujourd’hui, notre premier défi est une acceptation partagée en interne de ce type d’approche et de service afin de passer à l’échelle de l’industrialisation. Notre deuxième défi est une IHM à la fois souple et intuitive pour les utilisateurs ne connaissant pas la modélisation sous-jacente. Et enfin, le troisième défi est la mise en place de processus robustes de mise à jour du graphe.&lt;/p&gt;
&lt;p&gt;Auteurs:
- Yann REBOURS est en charge depuis novembre 2023 de l’accélération du numérique au Centre d’Ingénierie Hydraulique d’EDF Hydro
- Nicolas CHAUVAT est PDG de la société Logilab, spécialisée en Web Sémantique
- Sébastien FREAL-SAISON est pilote opérationnel SI au Centre d’Ingénierie Hydraulique d’EDF Hydro&lt;/p&gt;</description>
  <dc:date>2025-12-05T23:41+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411361</guid>
  <title>Synaptix, un framework open source pour la génération pilotée de graphes de connaissances, appliqué au projet Archipel de l’INRAP</title>
  <link>https://cms.semweb.pro/talk/18411361</link>
  <description>&lt;p&gt;Le framework open source Synaptix propose une méthodologie et un ensemble d’outils
dédiés à la génération et l’exploitation industrielle de knowledge graphs (KG) RDF. Ce
framework, fruit de plusieurs années de développement de plates-formes, a été notamment
au coeur du dictionnaire contributif dictionnairedesfrancophones.fr lancé en 2020, et vient
récemment d’être appliquée au projet Archipel porté par l’Institut national de recherches archéologiques préventives, l&#39;&lt;a href=&quot;https://www.inrap.fr/&quot;&gt;INRAP&lt;/a&gt;.&lt;/p&gt;
&lt;p&gt;Archipel est un projet visant la création d’une plateforme globale des données scientifiques
de l’archéologie produites par l’INRAP. Elle offre un unique point d’accès aux productions
publiques des agents de l’Inrap: rapport d’opérations de diagnostic ou de fouilles, projets, et
articles scientifiques. Le site &lt;a href=&quot;https://archipel.inrap.fr/&quot;&gt;https://archipel.inrap.fr/&lt;/a&gt; est ouvert au public depuis début 2025,
et l’API et le backend qu’il utilise ont été développés par &lt;a href=&quot;https://probabl.ai/&quot;&gt;:probabl&lt;/a&gt;
 et s’appuie sur le
framework Synaptix.&lt;/p&gt;
&lt;p&gt;L’approche Synaptix peut être assimilée à une méthode d’urbanisation de systèmes
d’informations, dont le projet Archipel est un exemple concret. Par urbanisation il faut
comprendre ici les moyens mis en œuvre pour décloisonner les silos de données des
organisations, et permettre un accès direct et simplifié à un ensemble d’informations
auparavant disséminées dans diverses bases de données. L’approche Synaptix pose que
les Knowledge Graphs RDF sont un excellent moyen pour atteindre ces objectifs, et propose
dans le même temps des solutions facilitant à la fois la génération et l’exploitation des ces
KGs, souvent perçus comme des solutions complexes et coûteuses à industrialiser.&lt;/p&gt;
&lt;p&gt;L’approche de l’urbanisation décrite ici peut se décomposer en quelques étapes pour
lesquelles l’approche Synaptix propose des solutions à la fois innovantes et ayant passées
avec succès l’épreuve de l’industrialisation:&lt;/p&gt;
&lt;p&gt;1.​ Ingestion et structuration des données grâce à un modèle pivot RDFS/OWL,
permettant d’exprimer en un seul schéma les multiples relations entre les concepts
portés par les données;&lt;/p&gt;
&lt;p&gt;2.​ Génération d’un graphe RDF rassemblant les données sources mappés sur le
modèle pivot, et exploitant des technologies de mapping génériques (RML.io) ou
ad’hoc;&lt;/p&gt;
&lt;p&gt;3.​ Analyse et enrichissement du graphe via des approches à bases de règles
(inférence, SPARQL) ou de machine learning&lt;/p&gt;
&lt;p&gt;4.​ Exposition du graphe via des interfaces complémentaires au endpoint SPARQL : un
index de moteur de recherche permettant un accès très performant, et une API
GraphQL plus adaptée au développement web.&lt;/p&gt;
&lt;p&gt;L’ensemble de ces étapes est piloté par un orchestrateur de tâches open source (Airflow)
permettant à la fois l’automatisation complète et le monitoring de ce processus.&lt;/p&gt;
&lt;p&gt;Intervenant:&lt;/p&gt;
&lt;p&gt;Freddy Limpens , Senior Knowledge Graph Engineer chez :probabl.ai depuis 2024. Titulaire
d’une thèse de doctorat dirigée par Fabien Gandon et Michel Buffa sur les approches
multi-points de vues dans l’enrichissement d’ontologies, il dispose de 15 d’expérience en
tant qu’ingénieur R&amp;amp;D sur le développement d’applications de partage de connaissances.
De 2019 à 2024 il a œuvré comme expert sémantique et chef de projet chez Mnemotix pour
le compte de clients variés (Ministère de la Culture, MNHN, Département de Dordogne, etc.)&lt;/p&gt;</description>
  <dc:date>2025-12-05T17:16+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411362</guid>
  <title>État de l&#39;activité Web Sémantique au W3C</title>
  <link>https://cms.semweb.pro/talk/18411362</link>
  <description>&lt;p&gt;Comme lors des années précédentes, je me propose de faire un état des lieux
des activités de standardisation et d&#39;incubation au W3C ayant un lien avec le
Web Sémantique. D&#39;ici novembre, le groupe de travail RDF &amp;amp; SPARQL
(anciennement RDF-star) compte avoir publié ses premiers livrables concernant
RDF 1.2, et il sera donc le bon moment pour faire un point sur la nouvelle
version de RDF. Le groupe de travail &quot;Data Shapes&quot;, travaillant sur la
prochaine version de SHACL, devrait également avoir progressé
significativement. En résumé, il devrait y avoir pas mal de nouveautés d&#39;ici
SemWeb.pro 2025.&lt;/p&gt;
&lt;p&gt;Auteur:&lt;/p&gt;
&lt;p&gt;Pierre-Antoine Champin est maître de conférence en informatique, spécialisé
dans la représentation et l&#39;échange ce connaissances sur le Web. Depuis 2021,
il a intégré en tant que /fellow/ l&#39;équipe du W3C, où il coordonne l&#39;activité
&#39;Data&#39;.&lt;/p&gt;
&lt;p&gt;Voir présentation sur &lt;a href=&quot;https://champin.net/2025/semwebpro&quot;&gt;https://champin.net/2025/semwebpro&lt;/a&gt;&lt;/p&gt;</description>
  <dc:date>2025-12-05T17:20+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411390</guid>
  <title>SPARQLing : un agent conversationnel pour explorer les graphes de données RDF</title>
  <link>https://cms.semweb.pro/talk/18411390</link>
  <description>&lt;p&gt;SPARQLing est un agent conversationnel conçu pour formuler des requêtes SPARQL
et explorer efficacement un graphe de données RDF. Notre approche vise à
utiliser les grands modèles de langue avec parcimonie et à exploiter l&#39;ontologie
via de l’IA symbolique. Nous présenterons les usages de SPARQLing et montrerons
comment cet agent peut faciliter l&#39;exploitation des graphes de données.&lt;/p&gt;
&lt;p&gt;Ce produit s&#39;adresse à deux types de publics : le grand public, qui ne maîtrise
pas SPARQL mais a besoin d&#39;accéder aux données présentes dans la base, et les
experts qui trouverons en SPARQLing un moyen rapide de formuler des requêtes
prêtes à être adaptées.&lt;/p&gt;
&lt;p&gt;L&#39;agent et l&#39;utilisateur discutent pour atteindre un but commun qui est la
formulation d&#39;une requête SPARQL. Les ressources utilisées incluent l’ontologie
et une base d&#39;exemples de requêtes valides. Après avoir calculé des plongements
lexicaux de la question posée, l&#39;agent sélectionne les exemples et la
sous-partie de l’ontologie qui semblent pertinents pour répondre à
l&#39;utilisateur. L&#39;association entre IA symbolique et IA générative permet
d&#39;offrir un dialogue fluide tout en limitant les hallucinations.&lt;/p&gt;
&lt;p&gt;SPARQLing a été testé sur des données d&#39;acteurs publics et privés et sera
bientôt commercialisé par Logilab. Les défis futurs pour SPARQLing incluent la
gestion de l&#39;implicite dans les questions formulées par l&#39;utilisateur, et la
capacité à poser des questions pour lever des incertitudes plutôt que de prendre
une décision par lui-même.&lt;/p&gt;
&lt;p&gt;Intervenant: Simon Chabot est ingénieur en informatique et docteur en
mécanique. Il travaille chez Logilab depuis 2018.&lt;/p&gt;</description>
  <dc:date>2025-12-05T18:49+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411397</guid>
  <title>Literate ontologies for fun and profit</title>
  <link>https://cms.semweb.pro/talk/18411397</link>
  <description>&lt;p&gt;Logic.Tools is a platform that helps companies develop applications based on semantic
web technologies. Today, Logic.Tools-powered applications are deployed and running
in two domains: an insurance company in France and train operators in Belgium and
Luxembourg. In these applications, a combination of OWL, SWRL and RDF is used to
describe business concepts, behavior and data. Logic.Tool&#39;s high performance
reasoners render the business description executable, which is then used to test,
explain and deploy running applications.&lt;/p&gt;
&lt;p&gt;One of the strengths of the approach taken by Logic.Tools is that business concerns are
modeled and executed independently from technical concerns. This separation, where
the business concerns are not obscured by technical worries, opens the door to non-
technical stakeholders such as domain experts to read, understand, vet and ultimately
change the core of an application.&lt;/p&gt;
&lt;p&gt;When we started Logic.Tools, we came to the realization that ontology/semantic web
authoring tools were lacking. To our opinion, no existing OWL/RDF/SWRL tool: treats
rules as a first-class entity, provides an intuitive interface to non-programmers,
includes a high-performance reasoner, among a long list of desiderata. We set then on
a path, that would ultimately result in the subject of our demo: The Logic.Tools Studio.&lt;/p&gt;
&lt;p&gt;The Logic.Tools Studio is an opinionated development system for OWL+SWRL
ontologies. The central innovation in the Logic.Tools Studio is its support for what we
call Literate Ontologies; that is Knuth&#39;s Literate Programming (Knuth, 1992) applied to
the definition of ontologies.&lt;/p&gt;
&lt;p&gt;In this demonstration, through a non-trivial example application we will explore the
Logic.Tools Studio live, showing:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;How literate ontologies are used to encapsulate the business meaning of an
application;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;the integrated support of different RDF syntaxes (RDF/XML, turtle, JSON-LD), and
our turtle-inspired SWRL concrete syntax proposal. Including support for cross
language search and refactoring facilities;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;our use of TRIG and RDF sub-graphs to embed examples in a Literate Ontology, as
well as our proposal for a unit-test definition language for ontologies;-&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;the different graphical syntaxes we have defined in order to help non-technical
business experts understand the semantics of the application; and&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;the explanation facilities that serve as a declarative debugger for the ontology&#39;s
axioms and rules.&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;For more information about Logic.Tools and the Logic.Tools studio, visit:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;visit our website: &lt;a href=&quot;https://logic.tools&quot;&gt;https://logic.tools&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;watch our quick tour videos: &lt;a href=&quot;https://www.youtube.com/@logictools4513&quot;&gt;https://www.youtube.com/@logictools4513&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;References:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Knuth, D. E. (1992). Literate Programming. Stanford, California: Center for the Study of Language and Information.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Authors: Carlos Noguera, Maxime Van Assche&lt;/p&gt;</description>
  <dc:date>2025-12-05T18:50+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411396</guid>
  <title>POKIMON: an ontology to capture geomodelling knowledge</title>
  <link>https://cms.semweb.pro/talk/18411396</link>
  <description>&lt;p&gt;3D structural geomodels are central to the representation, interpretation, and
communication of geological knowledge, serving both research and industry across a wide
range of applications—from resource exploration to risk assessment. Despite their widespread
use, the reuse, interoperability, and long-term accessibility of geomodels remain critically
limited. This is largely due to their encoding in proprietary formats and the absence of explicit,
standardized representations of the underlying expert knowledge that informs their
construction.&lt;/p&gt;
&lt;p&gt;While geomodel files may include data inputs, modeling algorithms, and some
interpreted features, they typically fail to document crucial tacit knowledge—such as the
interpretive rationale, domain assumptions, modeling choices, and decision-making
processes—that geoscientists use to construct and validate these models. Although some of this
information is relegated to metadata (e.g., degrees of validation), it remains disconnected from
the interpretive processes and lacks semantic richness.&lt;/p&gt;
&lt;p&gt;To address these challenges, we introduce POKIMON, an ontology designed to formally
represent the diverse and layered knowledge embedded in geological geomodels. POKIMON
leverages Semantic Web technologies to make this knowledge explicit, interoperable, and
machine-readable. It models geomodels both as conceptual constructs and material artefacts,
capturing how they are built spatially, and epistemologically. Knowledge elements—including
geologic interpretations, modeling workflows, and decision rationales—are structured as graph-
based data, enabling integration with heterogeneous geoscientific sources such as maps, reports,
and observational databases.&lt;/p&gt;
&lt;p&gt;POKIMON is aligned with a top-level ontology (BFO) and is designed for re-using
existing geoscience domain ontologies. POKIMON can be directly used by geomdoellers
during the construction of the geomodels by integrating it into their systems, or in later steps to
annotate and preserve the semantics of already constructed models. By doing this, POKIMON
lays a foundational cornerstone for an open, standards-based infrastructure for exhaustive
geomdoelling knowledge integration.&lt;/p&gt;
&lt;p&gt;About the First author:
With a 2024 PhD from the University of Orléans, Dr. Imadeddine LAOUICI specializes in
knowledge engineering for geoscientific applications. His doctoral research focused on
developing innovative formalisms to structure geological knowledge used in geomodelling
systems and automating key interpretations processes via formal analysis and semantic
technologies. Currently, as a Postdoctoral Researcher at the French Geological Survey,
Imadeddine is at the forefront of extracting semantics from existing geological models and
transforming this knowledge into valuable graph-based structures for future applications.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Imadeddine LAOUICI - BRGM, Orléans F-45060, France&lt;/li&gt;
&lt;li&gt;Boyan BRODARIC - Geological Survey of Canada, Natural Resources Canada, Ottawa, ON K1A 0E8, Canada&lt;/li&gt;
&lt;li&gt;Fatma CHAMEKH - BRGM, Orléans F-45060, France&lt;/li&gt;
&lt;li&gt;Christelle LOISELET - Ecole Spéciale des Travaux Publics du Bâtiment et de L’industrie (ESTP), 94234 Cachan, France&lt;/li&gt;
&lt;li&gt;Gautier LAURENT - ISTO, UMR 7327, Université d’Orléans, CNRS, BRGM, Orléans F-45071, France&lt;/li&gt;
&lt;/ul&gt;</description>
  <dc:date>2025-12-05T18:50+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411395</guid>
  <title>SousleSens: démocratiser la compréhension du web sémantique et faciliter son utilisation</title>
  <link>https://cms.semweb.pro/talk/18411395</link>
  <description>&lt;p&gt;La diffusion des technologies liées au web sémantique apparaît de jour en
jour plus utile afin de dépasser les limites atteintes par les technologies
standard  de gestion des données et servir de “garde fou” à l’IA pour les
entreprises en particulier et pour la société en général.&lt;/p&gt;
&lt;p&gt;Grâce à sa conception ergonomique originale SLS permet à chacun de réaliser
des tâches jusque-là réservées à des spécialistes et/ou à des outils
nécessitant un apprentissage  particulier :&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;l’exploration et la création d’ontologies implémentant largement OWL2&lt;/li&gt;
&lt;li&gt;création de SKG (semantic Knowledge graph):  mappings pour transformer les données tabulaires puis génération des triplets&lt;/li&gt;
&lt;li&gt;Valorisation du SKG: génération automatique requêtes SPARQL, plugins , API’s d’exposition&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Les fonctionnalités de SLS ont émergé grâce à une longue collaboration avec
Total Energies, consistant en l’élaboration de solutions techniques
permettant de résoudre des dizaines de cas d’usage différents pour lesquels
il semblait pertinent de tester l’approche sémantique.&lt;/p&gt;
&lt;p&gt;L’originalité de la solution élaborée en collaboration avec Total Energies
à partir de cas d&#39;usage pratiques se résume en quelques points :&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;“Un dessin vaut mille mots” :Une représentation visuelle riche (spatialisation du graphe)  et une manipulation interactive sont nécessaires  pour permettre l’appréhension de la complexité des ontologies et des SK&lt;/li&gt;
&lt;li&gt;Contraintes sous-jacentes des ontologies: elles  sont largement  prises en charge en tâche de fond par l’interface utilisateur, le guidant automatiquement  lors de la  création de ressources de façon à maîtriser à priori la validité des axiomes générés&lt;/li&gt;
&lt;li&gt;Gestion de ressources sémantiques :  stockées dans un ou plusieurs triplestores,  Elles sont accessibles notamment via une large bibliothèque de requêtes SPARQL&lt;/li&gt;
&lt;li&gt;Plateforme collaborative : une gestion à la fois rigoureuse et souple des droits sur les ressources sémantiques et les outils permet le travail individuel et la collaboration simultanée&lt;/li&gt;
&lt;li&gt;Plateforme ouverte :SLS est une solution open source à l&#39;architecture ouverte ; APi’s, plugins, exports/imports à différents formats&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;SLS a gagné un succès d’estime auprès de différentes audiences industrielles et académiques tel qu’il  justifie aux yeux de nombreux interlocuteurs la mise en place de moyens permettant de garantir sa pérennité et sa diffusion.&lt;/p&gt;
&lt;p&gt;Nous souhaitons présenter  des cas d&#39;usages montrant comment l’utilisation de SLS, agissant en médiateur à la fois rigoureux et accessible des standards du web sémantique,  amène une valeur opérationnelle reconnue et s’avère être un puissant outil pour stimuler la réflexion humaine face à la complexité des processus industriels et à la surabondance des données d’entreprise en parallèle ou en complément des LLM’s&lt;/p&gt;
&lt;p&gt;Auteur: Claude Fauconnet a travaillé la moitié de sa carrière en tant que géologue
pétrolier au sein du groupe devenu TotalEnergies, spécialisé dans la
synthèse de bassin et les études géo-pétrolières. Dans ce contexte, il
devait manipuler des données nombreuses et hétérogènes ce  qui l&#39; a amené à
utiliser de façon avancée les technologies informatiques de valorisation
des données. La deuxième partie de sa carrière salariée s&#39;est déroulée au
sein des services informatiques de TotalEnergies, d&#39;abord comme chef de
projet pour la réalisations d&#39;applications web métier puis au sein de
l&#39;entité Innovation Digitale du Groupe. Dans ce cadre, il a exploré promu
et expérimenté auprès des différents métiers les nouvelles technologies
numériques de valorisation d&#39;information incluant  le web  sémantique, les
moteurs de recherche, le Big data et les graphes.  Depuis 2017il poursuit
une activité de conseil principalement auprès de TotalEnergies et développe
en équipe la plateforme open source SousLeSens
  &lt;a href=&quot;https://github.com/souslesens/souslesensVocables&quot;&gt;https://github.com/souslesens/souslesensVocables&lt;/a&gt;&lt;/p&gt;</description>
  <dc:date>2025-12-05T18:51+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411398</guid>
  <title>Connaître et découvrir l’activité scientifique de l’IRD (projet Explore)</title>
  <link>https://cms.semweb.pro/talk/18411398</link>
  <description>&lt;p&gt;
La stratégie numérique de l’IRD en 2023 révélait deux grands axes :&lt;br/&gt;
&lt;/p&gt;&lt;p&gt;
• la valorisation des données et des activités scientifiques,&lt;br/&gt;
• l’amplification de la transparence des activités institutionnelles.&lt;br/&gt;
&lt;/p&gt;&lt;p&gt;
Avec des données dispersées dans différents systèmes d’information et souvent en silot, il est&lt;br/&gt;
difficile d’avoir une vue d’ensemble des activités et des compétences au sein de l’institut.&lt;br/&gt;
C’est dans ce contexte que la Mission Science Ouverte et la Direction Informatique (DDUNI) de&lt;br/&gt;
l’IRD ont répondu à un appel à projet France Relance en 2021 pour « Connaître et décrire l’activité&lt;br/&gt;
scientifique de l’IRD en reliant ses productions ».&lt;br/&gt;
&lt;/p&gt;&lt;p&gt;
Dans le cadre d’une prestation UGAP, nous avons fait appel à trois prestataires pour créer un graphe&lt;br/&gt;
sémantique consultable via un portail web et dont les données peuvent être mise à jour à la&lt;br/&gt;
demande.&lt;br/&gt;
&lt;/p&gt;&lt;p&gt;
Dans une première étape, nous avons identifiés trois cas d’usage auprès d’un panel utilisateur :&lt;br/&gt;
&lt;/p&gt;&lt;p&gt;
• En tant que gestionnaire de données, j’ai besoin de connaître les productions à l’IRD pour&lt;br/&gt;
faire une revue de littérature.&lt;br/&gt;
• En tant que responsable de structure, j’ai besoin de connaître les compétences à l’IRD pour&lt;br/&gt;
répondre aux enquêtes de bailleurs.&lt;br/&gt;
• En tant que producteur de données, j’ai besoin d’identifier les collaborations pour présenter&lt;br/&gt;
des références pour un appel d’offre.&lt;br/&gt;
&lt;/p&gt;&lt;p&gt;
À partir de ces cas d’usage, nous avons identifié les sources de données à connecter puis un modèle&lt;br/&gt;
de données s’articulant autour de quatre entitées: ird-contrat, ird-person, ird-activite et ird-documents.&lt;br/&gt;
&lt;/p&gt;&lt;p&gt;
Côté architecture, le graphe est relié aux sources de données par des connecteurs. Les données sont&lt;br/&gt;
ensuite tranformées et mises sous la forme de triplets conformément au modèle. Une série de&lt;br/&gt;
requêtes SPARQL analyse ensuite le contenu du graphe. Les données pivots telles que le matricule&lt;br/&gt;
des scientifique permet l’apairage des concepts connexes. Une analyse basé sur du machine learning&lt;br/&gt;
est également menée pour établir des connexions plus complexes, telles que le rapprochement de&lt;br/&gt;
noms de contrats et de noms de projets. Une fois le graphe consolidé, le données sont indexées dans&lt;br/&gt;
un moteur de recherche (ElasticSearch) qui sert d’interface entre le graphe et le portail web. Les&lt;br/&gt;
données du graphes sont consultables via une API GraphQL et l’ensemble des étapes précitées est&lt;br/&gt;
orchestré par l’outil AirFlow. L’application est constitué de briques modulaires containerisées.&lt;br/&gt;
&lt;/p&gt;&lt;p&gt;
Le lien suivant vous offre une démonstration de l’application : https://filesender.renater.fr/?&lt;br/&gt;
s=download&amp;amp;token=b1a0eecb-6a12-42fe-9eb3-007ff5599270&lt;br/&gt;
&lt;/p&gt;&lt;p&gt;
Auteur: Daniel Salas (docteur en informatique, spécialisé dans le calcul scientifique) Je travaille depuis&lt;br/&gt;
deux ans au sein de la Mission Science Ouverte de l&#39;IRD. Je suis en charge de la maintenance des&lt;br/&gt;
référentiels scientifiques, de leur mise en qualité et de leur intégration au SI de l&#39;IRD. Je suis&lt;br/&gt;
également formateur et j&#39;anime des sessions d&#39;aide à la rédaction des plans de gestion de données.&lt;br/&gt;
&lt;/p&gt;</description>
  <dc:date>2025-12-05T18:51+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411399</guid>
  <title>Vers une préservation pérenne du répertoire des œuvres musicales avec électronique : développement du système Antony</title>
  <link>https://cms.semweb.pro/talk/18411399</link>
  <description>&lt;p&gt;L’expérimentation et la création musicales se sont largement appuyées,
depuis la seconde moitié du XXe siècle, sur le développement des
technologies électroniques et numériques. Un corpus de milliers d&#39;œuvres
de musique mixte, mêlant instruments classiques et élements
électroniques et informatiques extrêmement divers, a déjà été constitué.&lt;/p&gt;
&lt;p&gt;Les acquis de cette révolution qui touche aux supports de la création
musicale n’ont toutefois pas la garantie d’être pérennes.
Intrinsèquement liée à la durée de vie de logiciels en perpétuelle
évolution et de langages de programmation non-interopérables, la
sauvegarde d’une œuvre mixte ne dépend souvent que de la capacité de
rares personnes à mettre à jour les programmes développés.&lt;/p&gt;
&lt;p&gt;Le projet Antony est né en réponse au risque important qui pèse sur un
pan entier du patrimoine musical des dernières décennies. Il s’agit
d’une application Web permettant à la fois la sauvegarde, la
documentation, le versionnage et la mise à disposition des composantes
électroniques d&#39;œuvres musicales faisant usage des technologies
numériques. L’enjeu de ce projet est de lutter contre le caractère
éphémère de ces musiques en assurant leur rejouabilité, qui est une
condition nécessaire à la possibilité de leur diffusion, de leur
mûrissement et à l’établissement d’un répertoire musical.&lt;/p&gt;
&lt;p&gt;L&#39;application utilise des standards du web sémantique pour représenter
les données de manière pérenne. Le modèle de données s&#39;appuie sur
l&#39;ontologie CIDOC-CRM étendue par les ontologies LRMoo et DOREMUS. De
plus, Antony produira des thésaurus pour inventorier les concepts,
notions et mots spécifiques aux domaines qui le concernent et les mettra
à disposition sur une instance Opentheso. Le graphe de connaissances
ainsi obtenu repose au maximum sur des composants standards et
populaires, ce qui facilite la réutilisation des données par des humains
ou des machines.&lt;/p&gt;
&lt;p&gt;Auteur·rice·s :&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Malena Fouillou : Conservatoire National Supérieur Musique et Danse de Paris&lt;/li&gt;
&lt;li&gt;Jacques Warnier : Conservatoire National Supérieur Musique et Danse de Paris&lt;/li&gt;
&lt;li&gt;Serge Lemouton : IRCAM – CGP&lt;/li&gt;
&lt;li&gt;Xavier Garnier : Logilab&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Démo de l&#39;application : &lt;a href=&quot;https://antony.demo-dedibox.logilab.fr&quot;&gt;https://antony.demo-dedibox.logilab.fr&lt;/a&gt;&lt;/p&gt;</description>
  <dc:date>2025-12-05T18:51+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411420</guid>
  <title>CartoECHOES: cartographie sémantique des acteurs, des projets et des outils</title>
  <link>https://cms.semweb.pro/talk/18411420</link>
  <description>&lt;p&gt;La mission du projet européen &lt;a href=&quot;https://echoes-eccch.eu/&quot;&gt;ECHOES&lt;/a&gt; est de mettre en place le cloud collaboratif européen pour le patrimoine culturel (ECCCH). Avant de mettre en place de nouvelles infrastructures, il est important de faire un état des lieux des projets existants, et de voir ce qui manque, ce qui peut être amélioré, les ponts possibles entre les Cloud existants, et surtout, assurer la pérennité de tout cela dans le temps.&lt;/p&gt;
&lt;p&gt;La cartographie CartoECHOES que nous présenterons, est donc un référencement, au sein du projet ECHOES, de tous les acteurs, de leurs projets respectifs, et des outils mis à disposition ou potentiellement utilisables dans le monde du patrimoine pour ce projet. Grâce aux principes FAIR (Findable, Accessible, Interopérable &amp;amp; Reusable), implémentés ici via le web sémantique, les données pourront être mises à disposition à tous les acteurs, de manière standardisée. Cela donnera un exemple de structuration des données ECHOES, à partir de ses propres données.&lt;/p&gt;
&lt;p&gt;Nous nous baserons pour cela sur des outils de sémantisation, qui transformeront des fichiers CSV en format RDF, chargé dans un triplestore. Une fois la phase de chargement des données, celles-ci pourront être maintenues par des utilisateurs via une interface ergonomique.&lt;/p&gt;
&lt;p&gt;Techniquement, nous transformerons les données via l&#39;ETL &lt;a href=&quot;https://data-players.com/grappe/&quot;&gt;Grappe&lt;/a&gt;, maintenu par Data-Players, qui les met à disposition du logiciel &lt;a href=&quot;https://virtual-assembly.org/projets/applications/https%3A%2F%2Fdata.virtual-assembly.org%2Fprojects%2Farchipelago/&quot;&gt;Archipelago&lt;/a&gt;, en utilisant les librairies de la boite à outils &lt;a href=&quot;https://semapps.org/&quot;&gt;SemApps&lt;/a&gt;, maintenues par l&#39;Assemblée virtuelle. Nous utiliserons aussi l &lt;a href=&quot;https://virtual-assembly.org/ontologies/pair-2021-summer/index-en.html&quot;&gt;ontologie P.A.I.R&lt;/a&gt;, afin de structurer les données. Nous pourrons aussi visualiser le graphe de données en réseau grâce au logiciel &lt;a href=&quot;https://www.flod.io/&quot;&gt;Flodio&lt;/a&gt;, ce qui montre une diversité d&#39;utilisation des données sémantiques (LDP, SPARQL).&lt;/p&gt;
&lt;p&gt;Cette présentation sera l&#39;occasion de parler de plusieurs sujets croisés :&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;Un retour sur la &lt;a href=&quot;https://portal.carto4ch.huma-num.fr/&quot;&gt;cartographie des compétences Carto4CH&lt;/a&gt; effectuée en 2023 aussi pour le patrimoine, ainsi que de son &lt;a href=&quot;https://portal.carto4ch.huma-num.fr/docs/technical-documentation/ontology&quot;&gt;ontologie HeCo&lt;/a&gt;, dont les travaux serviront pour le projet Echoes.&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Expliquer le projet européen ECHOES, et la promotion du web sémantique dans le monde du patrimoine (MASA...)&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;La nouvelle cartographie pour le projet ECHOES&lt;/li&gt;
&lt;li&gt;L&#39;architecture technique flexible de transformation des données et de sémantisation, mais aussi la plateforme Archipelago qui permet à des utilisateurs de manipuler des données sémantiques&lt;/li&gt;
&lt;li&gt;S&#39;il reste un peu de temps, renvoyer vers les travaux actuels de l&#39;Assemblée Virtuelle avec notamment &lt;a href=&quot;https://activitypods.org/&quot;&gt;ActivityPods&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;</description>
  <dc:date>2025-12-05T18:52+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411425</guid>
  <title>OpenArchaeo : Un portail pour croiser les données archéologiques</title>
  <link>https://cms.semweb.pro/talk/18411425</link>
  <description>&lt;p&gt;&lt;a href=&quot;http://openarchaeo.huma-num.fr/openarchaeo_v2/home&quot;&gt;OpenArchaeo&lt;/a&gt; est une plateforme web-sémantique dédiée à l’archéologie, développée par le consortium &lt;a href=&quot;https://www.huma-num.fr/&quot;&gt;Huma-Num2&lt;/a&gt; &lt;a href=&quot;https://masa.hypotheses.org/&quot;&gt;MASAplus&lt;/a&gt;, pour fédérer l’information archéologique disséminée dans une infinité de silos hétérogènes, et construire des liens entre les jeux de données.&lt;/p&gt;
&lt;p&gt;Lors de la conceptualisation de la plateforme OpenArchaeo, une solution a été apportée par le biais d&#39;un modèle sémantique basé sur le &lt;a href=&quot;https://cidoc-crm.org/&quot;&gt;CIDOC CRM&lt;/a&gt;, représentant les entités clés de l’archéologie. Les informations liées aux lieux, à la chronologie, aux personnes ou à la typologie d’objet physique utilisent des vocabulaires contrôlés tels que &lt;a href=&quot;https://pactols.frantiq.fr/index.xhtml&quot;&gt;PACTOLS&lt;/a&gt;, GeoNames, VIAF, IdRef ou ORCID, garantissant que chaque jeu de données contient des informations désambiguïsées et des termes scientifiques partagés et réutilisables par la communauté. Les données sont ainsi structurées en graphes de connaissances et gérées dans un triplestore interrogeable en ligne, qui est hébergé par l’IR Huma-Num.&lt;/p&gt;
&lt;p&gt;Toutefois, l&#39;interrogation d&#39;un triplestore peut être complexe, car elle implique l&#39;utilisation du langage SPARQL pour interroger le graphe de données. Modéliser les “questions de compétences” en SPARQL éloigne l’utilisateur final, l&#39;obligeant également à comprendre la complexité du graphe et de l’ontologie. En effet pour des raisons d’interopérabilité sémantique dans le CIDOC-CRM, de simples attributs d&#39;une entité peuvent être en fait représentés par le biais d&#39;une chaîne de propriétés complexe.&lt;/p&gt;
&lt;p&gt;Pour que l’utilisateur archéologue puisse raisonner dans son modèle scientifique lorsqu’il interroge les graphes de OpenArchaeo, une interface d&#39;interrogation visuelle intuitive a été développée, puis rendue générique sous le nom de &lt;a href=&quot;https://sparnatural.eu/&quot;&gt;Sparnatural&lt;/a&gt; par la société Sparna. Sparnatural permet aux utilisateurs d&#39;interagir avec le triplestore sans avoir de connaissances spécifiques sur l&#39;ontologie, le modèle sous-jacent ou le langage SPARQL. L’utilisateur peut ainsi interroger le triplestore en utilisant les concepts archéologiques qu’il a l’habitude de manipuler et l’application transforme ces concepts en leurs équivalents CIDOC pour générer la requête SPARQL. Le système de OpenArchaeo considère chaque jeu de données comme un endpoint singulier, et une requête peut fédérer les résultats provenant de différentes sources.&lt;/p&gt;
&lt;p&gt;OpenArchaeo est une application open-source novatrice qui permet aux données du Web sémantique d&#39;être utilisées non seulement par les machines, mais aussi par les chercheurs grâce à Sparnatural. Il augmente la valeur des données de la recherche en les rendant facilement trouvables et accessibles, conformément aux premiers principes FAIR. En outre, les données présentées dans OpenArchaeo sont accessibles via un point d&#39;accès unique, interopérables grâce à l&#39;ontologie CIDOC CRM et aux vocabulaires contrôlés, et réutilisables
grâce aux métadonnées associées.&lt;/p&gt;
&lt;p&gt;Auteurs: Florian HIVERT, Olivier MARLET, Béatrice MARKHOFF&lt;/p&gt;</description>
  <dc:date>2025-12-05T18:52+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411431</guid>
  <title>GARANCE : une solution pour la diffusion des référentiels sémantisés des Archives nationales</title>
  <link>https://cms.semweb.pro/talk/18411431</link>
  <description>&lt;p&gt;Depuis la fin 2024, le Lab des Archives nationales de France (AnF) et la société Sparna travaillent à la conception et à la réalisation d’une solution web de diffusion des référentiels sémantisés des AnF. Il s’agit de données de référence sur des entités de contexte des archives conservés aux AnF (des agents, des lieux, des concepts ; voir le graphique ci-dessous).&lt;/p&gt;
&lt;p&gt;Ces données ont été sémantisées conformément à SKOS et à l’ontologie RiC-O dans sa version 1.1 publiée en mai 2025 et sont disponibles sur GitHub (voir &lt;a href=&quot;https://github.com/ArchivesNationalesFR/Referentiels&quot;&gt;https://github.com/ArchivesNationalesFR/Referentiels&lt;/a&gt;). Elles forment ensemble un graphe de connaissances intéressant en soi pour les utilisateurs finaux tels que les chercheurs en sciences humaines et sociales : elles incluent notamment la description fine de nombreux services d’administration centrale de l’État de l’Ancien Régime à nos jours et celle des voies de Paris actuelles ou caduques. Elles sont aussi essentielles dans l&#39;écosystème des métadonnées des AnF : les archivistes de l&#39;institution les produisent et s&#39;en servent pour contextualiser et indexer la description des archives.&lt;/p&gt;
&lt;p&gt;L’objectif du projet, baptisé GARANCE (Graphe des Archives nationales de France pour la Recherche, l’Accès et la Navigation des Connaissances Enrichies) est de doter ces données liées, par ailleurs moins riches et très peu accessibles dans leur format source dans le SI actuel des AnF, d&#39;une solution web de consultation et de recherche qui envalorise la nature et le contenu, et soit facile à utiliser pour les publics des AnF et les professionnels des archives. Il s&#39;agit aussi de nourrir la réflexion sur le futur SI et ses fonctionnalités de diffusion. Nous présenterons le contexte et le déroulement du
projet, l&#39;architecture technique choisie, qui associe une base de graphes, un SPARQL end point, des dispositifs de recherche, un générateur de pages statiques et des composants de data visualisation, et le site web réalisé, qui sera officiellement mis en ligne fin 2025 ou début 2026.&lt;/p&gt;
&lt;p&gt;Nous ferons un focus sur le composant développé lors de la première phase du projet
qui est une chaine de publication de données RDF générique basée sur les composants
suivants :
- Générateur de sites statiques eleventy
- Framing JSON-LD pour mettre en forme des données sous forme de documents JSON « propres »
- SHACL pour contrôler certains paramètres d’affichage (ordre, couleurs)
- Template d’affichage d’entités JSON&lt;/p&gt;
&lt;p&gt;Auteurs : Thomas Francart (Sparna - &lt;a href=&quot;https://www.sparna.fr/fr/&quot;&gt;https://www.sparna.fr/fr/&lt;/a&gt;) et Florence Clavaud (Lab
des Archives nationales de France - &lt;a href=&quot;https://www.archives-nationales.culture.gouv.fr/&quot;&gt;https://www.archives-nationales.culture.gouv.fr/&lt;/a&gt;).&lt;/p&gt;</description>
  <dc:date>2025-12-05T18:53+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/18411436</guid>
  <title>Code officiel géographique de l&#39;INSEE</title>
  <link>https://cms.semweb.pro/talk/18411436</link>
  <description>&lt;p&gt;haque année au cours du premier trimestre, l’Insee diffuse le Code officiel géographique (COG). Cette nomenclature de référence rassemble les codes et libellés, au 1er janvier de l’année en cours, des communes, cantons, arrondissements, départements, collectivités territoriales ayant les compétences départementales, régions et pays et territoires étrangers. Chaque millésime tient compte des modifications territoriales dont la date d’effet est comprise entre le 2 janvier de l’année précédente et le 1er janvier de l’année de publication.&lt;/p&gt;
&lt;p&gt;L&#39;Insee maintient et publie une version RDF du COG, téléchargeable sous la forme de fichiers au format RDF/Turtle zippé. Les données peuvent également être obtenues par le biais de requêtes sur le point d&#39;accès SPARQL. Enfin, un service web est disponible depuis décembre 2020 sur le portail des API de l’Insee, qui permet d’accéder à l’historique du COG : l’API Métadonnées. Ce service web offre la possibilité d’obtenir une zone géographique à partir de son code et de la date, d’identifier les territoires englobés par une zone géographique (ou englobant une zone géographique), les territoires qui lui ont précédé ou succédé. Les fichiers téléchargeables du COG sont également accessibles depuis la plateforme ouverte de données publiques françaises data.gouv.fr.&lt;/p&gt;
&lt;p&gt;Un vocabulaire RDF dédié a été créé et maintenu pour la publication de ces données et couvrir des classes et propriétés qui n&#39;étaient pas disponibles dans les vocabulaires existants.&lt;/p&gt;
&lt;p&gt;En mettant à disposition la géographie administrative française dans un format du Web sémantique, l&#39;Insee renforce son engagement à améliorer l&#39;accessibilité et la visibilité de ses données statistiques à divers niveaux géographiques, répondant ainsi aux besoins croissants des utilisateurs en quête d&#39;informations structurées, fiables et interopérables (notamment via l’appariement direct avec les ressources de géographie attributaire de l’Institut national de l’information géographique et forestière, IGN).&lt;/p&gt;
&lt;p&gt;Liens :&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Le COG sur la plateforme des données publiques françaises &lt;a href=&quot;https://www.data.gouv.fr/fr/datasets/code-officiel-geographique-cog/&quot;&gt;https://www.data.gouv.fr/fr/datasets/code-officiel-geographique-cog/&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;L&#39;API Métadonnées &lt;a href=&quot;https://portail-api.insee.fr/catalog/api/5029cf12-e930-4d24-a9cf-12e9307d241d&quot;&gt;https://portail-api.insee.fr/catalog/api/5029cf12-e930-4d24-a9cf-12e9307d241d&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;Vocabulaire RDF du COG &lt;a href=&quot;https://github.com/InseeFr/Ontologies/blob/master/insee-geo.ttl&quot;&gt;https://github.com/InseeFr/Ontologies/blob/master/insee-geo.ttl&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;Insee SPARQL Endpoint &lt;a href=&quot;https://rdf.insee.fr/&quot;&gt;https://rdf.insee.fr/&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Auteur :&lt;/p&gt;
&lt;p&gt;Guillaume Duffes a travaillé pendant 8 ans (2011-2019) sur la mise en place d’un référentiel de métadonnées à l’Insee en mettant en œuvre diverses normes et standards dont ceux du Web Sémantiques, et notamment les vocabulaires W3C. Il est revenu sur ces activités à l’Insee depuis septembre 2024.&lt;/p&gt;</description>
  <dc:date>2025-12-05T18:53+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195258</guid>
  <title>L&#39;approche sémantique au service d&#39;usages métiers - l&#39;utilisationde la plateforme Raffiné par l&#39;équipe digitale d&#39;un club sportif de Ligue 1de football</title>
  <link>https://cms.semweb.pro/talk/16195258</link>
  <description>La gestion d&#39;actifs digitaux est une nécessité pour nombre d&#39;organisations, et
ceci dans une diversité de domaines: médias, retail, renseignement, sport...

A chacun de ces domaines s&#39;associe une connaissance métier propre, qui
trouve dans les formalismes sémantiques les moyens pérennes et évolutifs de
les modéliser.

Bien souvent, le changement de paradigme (et de pensée) qu&#39;implique
l&#39;approche sémantique est un frein fort pour ces institutions qui y voient
un travail lourd et complexe, au retour sur investissement trop faible.
Et pourtant...

Modéliser la connaissance métier, c&#39;est ni plus ni moins que rendre
l&#39;implicite explicite. Cet implicite qui oblige bien souvent les
utilisateurs à reproduire des tâches répétitives, à ne pas retrouver leurs
actifs digitaux, à perdre une efficacité opérationnelle et donc de l&#39;argent.
Car oui, les assets digitaux sont bien des actifs, avec la valeur que cela
implique, appelé à fortement décroître en cas de difficulté de leur accès.

A travers la mise en oeuvre de sa plateforme Raffiné, Perfect Memory
partagera son expérience sur les barrières levées et les problématiques
opérationnelles résolues grâce à l&#39;approche sémantique et les outils
développés permettant de l&#39;exploiter de manière &quot;métier&quot;.

En s&#39;appuyant sur les cas d&#39;usage de l&#39;équipe digitale d&#39;un club sportif de
ligue 1 de football, la présentation se focalisera sur des exemples
concrets de mise en oeuvre à forte valeur ajoutée, ayant convaincu cette
institution non familière des technologies sémantiques à &quot;changer de
paradigme&quot;. Par la démonstration des outils de traitement, d&#39;enrichissement
et d&#39;accès aux actifs digitaux sportifs, Perfect Memory présentera
l&#39;amélioration très importante de l&#39;efficacité opérationnelle des
utilisateurs.

La plateforme Perfect Memory est utilisée aujourd&#39;hui par plusieurs grands
acteurs des médias, mais aussi dans d&#39;autres verticaux comme les clubs
sportifs, la presse numérique ou encore le retail.

Vidéo d&#39;exemple d&#39;utilisation de la [plateforme Perfect Memory](https://www.youtube.com/watch?v=azWJRMc_iSI)

#### Auteurs/Autrices

Guillaume Rachez - Product Manager à Perfect Memory
 
Diplômé de l’Université de Valenciennes en tant qu’Ingénieur des Systèmes
Images et Sons, il est spécialisé dans les technologies sémantiques et
l’indexation de médias. Collaborateur de Perfect Memory depuis les
premières heures, il a contribué à la mise en œuvre des concepts fondateurs
de la plateforme.</description>
  <dc:date>2024-04-23T14:40+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195285</guid>
  <title>SaGe: Préemption Web pour les services publics d&#39;évaluation de requêtes SPARQL</title>
  <link>https://cms.semweb.pro/talk/16195285</link>
  <description>Suivant les principes du Linked Open Data (LOD), les fournisseurs de
données hébergent publiquement des millions de triples au format RDF.
Cependant, fournir un service public qui permet à n’importe qui d’exécuter
n’importe quelle requête SPARQL sur ces données est toujours un problème
ouvert. Comme ces services sont soumis à une charge imprévisible de requêtes, le
défi est d’assurer qu’ils demeurent stables malgré des variations en termes de
taux d’arrivées des requêtes et des ressources nécessaires à leur évaluation.
Pour résoudre ce problème, la plupart des fournisseurs de données appliquent une
politique d’utilisation équitable des serveurs basée sur des quotas. Ces
derniers visent à empêcher les effets convois, c.a.d, une requête longue à
exécuter bloque l’évaluation des autres. Le principal défaut de cette politique
est qu’elle empêche les requêtes interrompues de délivrer des résultats
complets. Cela constitue une limite sérieuse pour les utilisateurs du LOD, qui
peuvent vouloir exécuter des requêtes longues.

Nous pensons que le problème lié aux quotas ne réside pas dans l’interruption
des requêtes, mais dans l’impossibilité pour les clients de reprendre leur
exécution après interruption. Néanmoins, il n’existe pas de modèle de préemption
pour le Web qui permet la suspension et la reprise de l’exécution de requêtes
SPARQL.

Dans cette présentation, nous présentons SaGe, un moteur d’évaluation de
requête SPARQL basé sur la préemption Web. Il permet à un serveur Web de
suspendre une requête SPARQL en cours d’exécution après un certain temps, puis
de reprendre son exécution ultérieurement. Une fois suspendue, l’état d’une
requête est retourné au client, qui peut reprendre son exécution en renvoyant
l’état au serveur.  L&#39;article de recherche décrivant l&#39;approche générale a été
publié au congrès The Web Conference 2019. La présentation abordera le concept
général de la préemption Web, les détails techniques du logiciel SaGe et une
étude de ses performances. Elle sera accompagnée d&#39;une démonstration.

#### Références
Lien vers une démonstration: http://sage.univ-nantes.fr/

#### Auteurs/Autrices

**Thomas Minier** est doctorant en 3ème année au Laboratoire des Sciences du
Numérique de Nantes (LS2N). Ses activités de recherche portent sur le Web
Sémantique, le Linked Open Data et l&#39;évaluation de requêtes SPARQL.

Ses travaux ont été publiés dans les conférences ESWC et The Web Conference.</description>
  <dc:date>2024-04-23T14:55+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195291</guid>
  <title>Exploitation de données de musées et monuments grâce aux technologies duweb sémantiques</title>
  <link>https://cms.semweb.pro/talk/16195291</link>
  <description>Data&amp;amp;Musée est un projet exploratoire visant à améliorer les systèmes
d’information d’institutions culturelles. Nous faisons l’hypothèse que la
promotion du patrimoine culturel peut bénéficier des techniques récentes de
représentation et d’exploration des connaissances.

Plus spécifiquement, Data&amp;amp;Musée explore une idée portée par deux types
d’actions:

* mutualiser les données d’un ensemble d’organismes culturels
* assembler les données d’un organisme avec des données relatives à son environnement

Cette approche permet d’enrichir les analyses qu’on peut faire sur ces
données, les données d’une institution contribuant à une meilleure
compréhension des données des autres, elles même améliorées par des données
de leur environnement.

Pour cela, nous avons besoin d’enrichir des ensembles de données issues des
partenaires du projet et d’en assurer l’interopérabilité. Une approche
reconnue pour assurer ce type d’exploitation de données est l’utilisation
des technologies du web sémantique, qui ont montré leur puissance pour le
développement des connaissances dans divers domaines comme le tourisme
(Soualah Alila et al., 2016; Al- Ghossein et al., 2018), les villes
intelligentes (Consoli et al., 2015; Gyrard et al., 2016) ou la
valorisation du patrimoine culturel (Lodi et al., 2017).

Ces techniques permettent d’assurer une représentation unifiée de données
hétérogènes mais apparentées, ce qui facilite le liage et l’enrichissement
de ces données.

Data&amp;amp;Musée reçoit, dans un premier temps, des données de 14 musées du
groupement Paris Musées, et des 85 musées et monuments du Centre des
Monuments Nationaux. En comptant les deux groupements, cela fait exactement
101 institutions qui fournissent des données. La fédération de ces
institutions dans deux groupements facilite les interactions nécessaires à
la collecte des données.

Data&amp;amp;Musée bénéficie des expertises de plusieurs entreprises spécialisées
dans le traitement de certains types de données –billetterie, livre d’or-
ou dans les services numériques pour institutions culturelles. Deux
laboratoires de recherche contribuent à l’élaboration des solutions
retenues : Telecom ParisTech et la chaire UNESCO ITEN.

Nous allons d’abord présenter ici la nature des données collectées et le
volume de certaines d’entre elles. Nous évoquerons ensuite les choix de
représentation et la méthode retenue pour leur intégration. Enfin, nous
aborderons la nature des traitements que nous effectuons ou prévoyons sur
ces données et des questions auxquelles nous espérons pouvoir répondre.

A l’issue du projet, nous espérons pouvoir présenter aux institutions et à
leurs visiteurs des moyens de mieux percevoir les possibilités offertes
pour une amélioration de leurs choix.


#### Auteurs/Autrices

**Jean-Claude Moissinac**, Maitre de Conférences à Télécom Paris, est pilote du
projet Data&amp;amp;Musée pour Télécom Paris. il supervise notamment l&#39;intégration
des données de Data&amp;amp;Musées dans le portail [Teralab](https://www.teralab-datascience.fr/fr/)

Des démonstrations seront accessibles à l&#39;occasion de SemWebPro.</description>
  <dc:date>2024-04-23T14:59+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195301</guid>
  <title>Semi-automatic RDFization of heterogeneous object description</title>
  <link>https://cms.semweb.pro/talk/16195301</link>
  <description>A major challenge in cyber-physical environments is the increasing
heterogeneity that complexifies access to devices. This challenge can be
addressed by 	hingin, a linked-data compatible property-graph-based
platform promoted by Orange. Besides being able to represent cyber-physical
environments at a system-level, 	hingin can provide uniform access to
heterogeneous devices in them. However, a necessary condition for 	hingin
to satisfy this goal is to have a description of these devices.
Nevertheless, the heterogeneity related to devices are well present in
their descriptions and mainly include syntactic and semantic heterogeneity
that occurs as a result of the varying data formats and vocabularies
respectively. Consequently, inputting these descriptions in 	hingin
remains a challenge. To tackle this challenge, standards and technologies
that were originally conceived for the Semantic Web can be used. More
specifically, RDF may be used to handle syntactic heterogeneity by acting
as a lingua franca as it is independent of data formats.

Also, it may be used to resolve semantic heterogeneity by using vocabularies
and ontologies to eliminate the ambiguity of terms as it fixes their interpretations.
However, transforming the existing description of objects to RDF is again
challenging. Mapping languages can be used to encode the transformation.

However, their usage is complex even with the intervention of human experts
as it involves manually considering data elements from the device
description and looking for ontology terms to which they can be mapped.

Thus, in this work, our aim is to provide a semi-automatic and generic
approach to facilitate the generation of RDF from heterogeneous device
description. We chose a semi-automatic approach to compensate for the lack
of semantics in device description and potential imprecision in the final
transformation. Moreover, our approach is generic in that it is independent
of hingin and can interoperate with any other platform via its RESTful
API. 

Our approach takes as input the raw description extracted from sources
such as the object manuals, keywords that describe schema elements in the
latter description and a set of ontologies. It outputs possible mappings to
transform the object description to RDF. To generate these mapping rules,
the approach first identifies ontology entities that can be used to model
individual schema elements from the input data by calculating a similarity
score between them. If the score exceeds a certain threshold specified by
the human expert, an ontology entity is considered a suitable mapping for a
schema element. Using the latter mappings, the mappings rules are
generated. Finally, the human expert chooses, modify and refine one of the
mappings that are finally used to transform the original data to RDF.


#### Références

https://drive.google.com/open?id=1FmgmwrIJKi9xGvDjmjU3sosohuatb4_G</description>
  <dc:date>2024-04-23T15:05+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195313</guid>
  <title>Un modèle conceptuel, une ontologie et des outils pour la sémantisation des métadonnées archivistiques</title>
  <link>https://cms.semweb.pro/talk/16195313</link>
  <description>Depuis 2013, un groupe de travail du Conseil international des Archives
[ICA-Expert Group on Archival](https://www.ica.org/en/about-egad)

Description prépare un nouveau standard pour la description des archives,
Records in Contexts (RiC). L’objectif est de fournir aux archivistes, records
managers et institutions patrimoniales responsables d’archives un cadre
conceptuel abstrait et un modèle formel (ontologie OWL) génériques, centrés sur
les entités à décrire et compatibles avec les modèles de métadonnées
antérieurs. Comme CIDOC-CRM pour les œuvres d’art et IFLA-LRM pour les livres et
autres objets édités conservés en bibliothèque, RiC modélise sous forme de
graphe, de façon précise et flexible, les archives et les différentes couches de
contexte dans lesquelles celles-ci s’inscrivent. Après la publication d’une
version 0.1 du modèle conceptuel [RiC-CM](https://www.ica.org/en/egad-ric-conceptual-model)

En août 2016, le groupe EGAD publiera cet automne une version 0.2 de RiC-CM. 

En octobre 2019, une version 0.1 de l’ontologie RiC-O sera également rendue publique,
accompagnée d’un appel à commentaires. Les Archives nationales sont très
impliquées dans l’élaboration de RiC.

Nous nous proposons de donner un aperçu des principes qui ont guidé
l’élaboration de RiC-CM v0.2 et de RiC-O v0.1, puis de leur contenu.

Nous présenterons ensuite les travaux en cours aux Archives nationales pour
mettre en œuvre RiC. En effet, après la mise en ligne en mars 2018 d’une
preuve de concept [PIAAF](http://piaaf.demo.logilab.fr/), des
opérations de plus grande ampleur y sont menées. 

En particulier, la société Sparna a réalisé pour les Archives nationales
un outil de conversion en données RDF conformes à RiC-O de l’ensemble des
métadonnées de description des archives conservées dans cette institution.
Le code source et la documentation de ce convertisseur seront publiés sous 
licence libre avant décembre 2019. Nous pourrons présenter publiquement
pour la première fois cet outil ainsi que les données RDF des Archives
nationales.

#### Auteurs/Autrices

**Florence Clavaud**, responsable de la Mission référentiels aux Archives nationales ;
membre exécutif du groupe ICA/EGAD, responsable du développement de l’ontologie RiC-O.
Courriel : florence.clavaud@culture.gouv.fr

**Thomas Francart**, consultant indépendant, gérant de la société Sparna (http://www.sparna.fr/).
Courriel : thomas.francart@sparna.fr</description>
  <dc:date>2024-04-23T15:10+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195318</guid>
  <title>Corrium</title>
  <link>https://cms.semweb.pro/talk/16195318</link>
  <description>Ayant déjà participé au Semweb pro en présentateur il y a deux ans, je souhaite
exposer nos avancées sur l&#39;utilisation des technos sémantiques pour
l&#39;analyse d&#39;infrastructures informatiques.

Corrium est un robot de diagnostic (www.corrium.com) qui contrôle les éléments
d&#39;une infrastructure informatique et apporte des prescriptions sous forme de
plan d&#39;action.  Nous avons développé une ontologie pour représenter une
infrastructure informatique et nous l&#39;utilisons pour formaliser les dumps de
configuration.  Nous avons développé un moteur d&#39;inférence basé sur des
règles en Sparql et envisageons de tout passer en SHACL dans les prochains mois.

Le sujet du web sémantique est présenté ici sous une utilisation peu courante et
il est toujours intéressant de percevoir la gestion des connaissances dans
un autre domaine. 

#### Auteurs/Autrices

**Frédéric Hay**, je suis expert ITIL et architecte de la solution Corrium.</description>
  <dc:date>2024-04-23T15:11+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195090</guid>
  <title>Comment construire une plateforme de valorisation du patrimoinegéographique basée sur les outils du Web Sémantique : l&#39;exemple de Navigae</title>
  <link>https://cms.semweb.pro/talk/16195090</link>
  <description>Recourir aux outils et standards du Web Sémantique est-il pertinent pour
valoriser la dimension spatiale de ses données ? Quelles sources et quels
modèles existent aujourd’hui pour enrichir des données cartographiques ? Et
surtout pour quels usages ? Cette présentation revient sur les questions
liées à la conception de [Navigae](https://www.navigae.fr), une plateforme de
valorisation du patrimoine géographique réalisée avec le Centre IST Regards de
l’UMR.

Passages et s&#39;intéresse ainsi à la place du Web Sémantique dans le domaine
de la géographie.

#### Auteurs/Autrices

Diplômé d’un Master en Intelligence Artificielle et Modélisation des
Connaissances, [Julien Homo](https://www.linkedin.com/in/julien-homo-b6171213/)
est aujourd&#39;hui co-fondateur de [Foxcub](https://foxcub.fr), une société
de conseil spécialisée dans les usages des données et leurs architectures.

Riche de nombreuses expériences en tant que Data Engineer spécialisé en
Web Sémantique chez Antidot puis en tant que Data Architect chez Capgemini, le
travail de Julien consiste principalement à valoriser et enrichir les données de
clients qui cherchent à mettre en lumière des données jusqu&#39;à présent
cloisonnées et peu exploitées.</description>
  <dc:date>2024-04-24T07:50+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195101</guid>
  <title>Validation of engineering designs represented in OWL according to ISO 15926</title>
  <link>https://cms.semweb.pro/talk/16195101</link>
  <description>ISO 15926 is a series of standards for the integration of life cycle data
for process plants.  The scope of the standards includes all life cycle phases
include conceptual and detailed design, procurement construction and
commissioning, and operation and maintenance.

The standards have a formal basis with a top-level ontology that uses a 4D
approach to change over times, and a possible worlds approach to design.  The
ontology was defined initially using the EXPRESS information modelling language,
but a representation in OWL has been standardised as part 12 of the series.  The
top-level ontology is used alongside a taxonomy of activities and physical
objects relevant to process plants and their properties.


During the design of a process plant the functional requirements for a facility
within the plant are defined, and then the type of equipment item to be
installed is selected for procurement.  The validity of a select equipment item
for its intended duty can be validated automatically by inferencing engines.  If
it is not valid, then the reason why can be reported.


The rendering of the 4D possible worlds approach in OWL DL to support
inferencing presents challenges, because using this approach much property and
design data involves relationships between user defined instances of classes.
The way in which this can be hidden from OWL to produce a useful and
computationally tractable view is discussed.


#### Auteurs/Autrices

**David Leal** has worked on formal representations of engineering data for many
years.  He was a developer and user of finite element analysis systems, and
produced early representations of analysis data as relational data bases.
Subsequently he worked within ISO committee TC 184/SC4 “Industrial data” on
EXPRESS data models in international standards for engineering analysis data and
for life-cycle data for process plants.  Recently he has been involved in
transforming the data models in these standards into OWL ontologies.</description>
  <dc:date>2024-04-24T07:59+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195244</guid>
  <title>Comment exploiter une ontologie de recherche scientifique à des fins d&#39;analyse automatique de documents</title>
  <link>https://cms.semweb.pro/talk/16195244</link>
  <description>Retour d’expérience sur un cas concret : enrichissement d’une ontologie à
partir de l’analyse de publications scientifiques sur la résistance aux
antibiotiques.

Proxem est pionnier de l&#39;analyse sémantique des données textuelles pour
l&#39;entreprise. Sa technologie est fondée sur une technologie hybride d&#39;extraction
d&#39;informations et de gestion des connaissances grâce à l&#39;IA, et d&#39;outils
linguistiques d&#39;analyse sémantique.

Dans le cadre d’un projet de mise en place d’un outil de veille scientifique
sur le sujet de la résistance aux antibiotiques, nous avons exploré comment, à
partir d’une ontologie dédiée à la recherche scientifique (dans le cas présent
CARD (The Comprehensive Antibiotic Resistance Database)), il était possible
d’exploiter les ressources de ladite ontologie à des fins d’analyse automatique,
et de proposer de nouvelles relations susceptibles d’enrichir l’ontologie de
départ.

En particulier, il s’agissait de proposer des relations « confer resistance »
entre des déterminants (ou mécanismes) de résistance, des antibiotiques et des
bactéries. 

Les sujets abordés dans le cadre de ce projet sont :

* Récupération de l’ontologie source, compréhension de sa structure et
sélection des éléments transformables en « lexiques » pour l’analyse
automatique.

* Problèmes liés à la lexicalisation des éléments de l’ontologie (reconnaissance
des formes fléchies, des composés, identification des « unités lexicales ». Par
exemple structure « syntaxique » des déterminants de résistance.

* Problèmes de tokenisation associés Nous montrerons comment nous avons
extrait des lexiques d’antibiotiques, de bactéries et de déterminants de
résistance

* Problèmes liés à l’exploitation de connaissances non « lexicalisées » dans
l’ontologie : par exemple comment extraire le vocabulaire utilisé dans les définitions,
pouvant servir à identifier des mécanismes complexes de résistance.

* Les mécanismes de résistance sont complexes, mettant en jeu des mutations
génétiques, des membranes cellulaires, des enzymes : l’enjeu, dans un dialogue
avec des spécialistes du domaine, était d&#39;une part de déterminer les éléments
« lexicaux » permettant de donner des indices de détection d’un mécanisme de
résistance exprimé dans un article scientifique et d&#39;autre part d&#39;identifier les
structures phraséologiques plus complexes, permettant d’augmenter le rappel.

* Association d’un score aux relations identifiées.

Nous présenterons les résultats
obtenus et les pistes d’améliorations envisagées.


#### Auteurs/Autrices

**Jocelyn Coulmance** - Directeur scientifique, en charge de la R&amp;amp;D chez Proxem, 
diplômé de l’École Nationale Supérieure d&#39;Informatique pour l&#39;Industrie et
l&#39;Entreprise.

**Cécile Potier** - Cheffe de projet infolinguiste chez Proxem, docteure en Linguistique théorique et formelle (Paris VII).</description>
  <dc:date>2024-04-23T14:26+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195375</guid>
  <title>Les graphes de connaissance législatifs : un univers foisonnant et opérationnel</title>
  <link>https://cms.semweb.pro/talk/16195375</link>
  <description>&lt;p&gt;La description des activités législatives et de la loi par des graphes de connaissance illustre le dynamisme et l’adaptabilité aux cas d’usage des technologies du web sémantique. Au travers de cas concrets de mise en œuvre de graphes de connaissances, d’annotations sémantiques de sites web, de publication de vocabulaires contrôlés réutilisables nous montreront la capillarité des standards, leur capacité d’adaptation, et la création progressive d’un graphe distribué sur les législations et sur l’activité législative en Europe.&lt;/p&gt;
&lt;p&gt;Nous verrons dans cette présentation comment depuis FRBR l’Office des Publications de l’union européenne conçu une ontologie adaptée à la description de la législation européenne et un graphe de connaissance qui sert de pilier à la dissémination de la législation, comment cette première réalisation a servi d’inspiration pour la réalisation par le Luxembourg de graphes de connaissances qui couvrent la diffusion de la législation mais aussi toutes l’activité législative, projet aujourd’hui adapté par la Suisse pour les besoins de la législation fédérale.&lt;/p&gt;
&lt;p&gt;En parallèle, et toujours sur la base de FRBR, nous verrons comment le forum des journaux officiels européens, financé par l’UE, a pu définir le standard ELI pour l’annotation des pages des sites des journaux officiels pour décrire de manière standardisée et interopérable les législations des différents pays, avec une adoption par 13 pays aujourd’hui.&lt;/p&gt;
&lt;p&gt;Nous verrons également comment la mise en œuvre de ces graphes de connaissances a permis, à large échelle, la création de vocabulaires contrôlés SKOS, et le partage de certains de vocabulaires sous l’initiative de l’équipe EU Vocabulary.&lt;/p&gt;
&lt;p&gt;Nous verrons comment d’une description de ressources documentaires et de leurs relations, ces ontologies du droit basées sur FRBR ont adopté les concepts de CIDOC-CRM pour permettre la description de l’activité législative, enchaînement d’événements et de production de textes.&lt;/p&gt;
&lt;p&gt;Finalement nous présenterons comment le besoin d’une bonne visibilité de la législation dans le web a motivé une collaboration entre les éditeurs de l’ontologie ELI et les éditeurs de &lt;a href=&quot;http://schema.org&quot;&gt;schema.org&lt;/a&gt; pour proposer une extension de &lt;a href=&quot;http://schema.org&quot;&gt;schema.org&lt;/a&gt; dédiée à la législation.&lt;/p&gt;
&lt;p&gt;En conclusion, il s’est construit en 15 ans un ensemble de standards, d’ontologies, de graphes de connaissances, de vocabulaires contrôlés, d’annotations sémantiques parfaitement adaptés à leurs usages de description de la législation au travers de l’Europe.  Ces différents projets ont permis de former des équipes métiers et des équipes IT à Malte, au Portugal, en Irlande, en France, en Suisse… capable de comprendre et mettre en œuvre ces technologie, d’adapter des ontologies, de partager des terminologies.&lt;/p&gt;
&lt;h3&gt;Références&lt;/h3&gt;
&lt;p&gt;Standard ELI : &lt;a href=&quot;https://eur-lex.europa.eu/eli-register/about.html&quot;&gt;https://eur-lex.europa.eu/eli-register/about.html&lt;/a&gt; et &lt;a href=&quot;https://joinup.ec.europa.eu/collection/eli-european-legislation-identifier&quot;&gt;https://joinup.ec.europa.eu/collection/eli-european-legislation-identifier&lt;/a&gt;
Vocabulaires contrôlés de l’UE : &lt;a href=&quot;https://op.europa.eu/en/web/eu-vocabularies&quot;&gt;https://op.europa.eu/en/web/eu-vocabularies&lt;/a&gt;
Open data du service de la législation du Luxembourg : &lt;a href=&quot;http://data.legilux.public.lu/&quot;&gt;http://data.legilux.public.lu/&lt;/a&gt;
Extension législative de &lt;a href=&quot;http://schema.org&quot;&gt;schema.org&lt;/a&gt; : &lt;a href=&quot;https://schema.org/Legislation&quot;&gt;https://schema.org/Legislation&lt;/a&gt;&lt;/p&gt;
&lt;h3&gt;Auteurs/Autrices&lt;/h3&gt;
&lt;p&gt;Jean Delahousse est un consultant et analyste expérimenté avec 20 ans d’expérience dans les technologies du web sémantique, les données ouvertes et liées, la gestion de vocabulaires contrôlés et de graphes de connaissance.
Jean participe à des projets dans différents domaines : législation, santé, culture, sécurité, science, énergie, pour définir des stratégies centrées sur les données et les connaissances, concevoir des ontologies, conseiller sur la gestion et distribution de données ouvertes, rédiger le cahier des charges.&lt;/p&gt;</description>
  <dc:date>2024-04-22T14:28+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195084</guid>
  <title>DOREMUS - Exemple d&#39;une démarche complète de modélisation, conversion,publication et réutilisation de données; les catalogues musicaux de troisgrandes institutions</title>
  <link>https://cms.semweb.pro/talk/16195084</link>
  <description>Le projet de DOREMUS (projet ANR 2015/2018) a pour objectif de permettre
aux institutions culturelles, aux éditeurs et distributeurs, ainsi qu’aux
communautés de passionnés de disposer de modèles de connaissances communs
(ontologies), de référentiels partagés et multilingues ainsi que de
méthodes pour publier, partager, connecter, contextualiser, enrichir les
catalogues d’œuvres et d’événements musicaux dans le web des données. A
cette occasion trois institutions culturelles, la BnF, RadioFrance et la
Philharmonie de Paris (Cité de la Musique), mettent à disposition leurs
riches catalogues d&#39;oeuvres, enregistrements, partitions, concerts.

Après 2 ans et demi de travail le projet dispose de très nombreux résultats
qui illustrent l&#39;ensemble des facettes des technologies du web semantique,
du LinkedOpenData mais également des cas de réutilisation de données par
des systèmes de recommandation ou de réalité augmentée.

Nous présenterons les différents résultats opérationnels du projet en
illustrant de bout en bout la démarche suivie, puis en se focalisant sur
les résultats les plus immédiatement utilisables comme Overture, outil de
navigation et recherche sur des catalogues musicaux unifiées, Recommender,
système de recommandation musicale entrainé avec la programmation de radios
musicales, et une expérience d&#39;écoute musicale intégrée au parcours
touristique d&#39;une ville; Nice.

#### Références
Le projet DOREMUS regroupe la BnF, Radio France, la Philharmonie de
Paris, Ourouk, Meaning Engines, EURECOM, le LIRMM (Université de
Montpellier), Geriico (Université de Lille)

#### Auteurs/Autrices

**Jean Delahousse**, expert web sémantique et Linked Open Data

**Pascale Lisena**, doctorant, EURECOM</description>
  <dc:date>2024-04-26T10:03+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195380</guid>
  <title>Smart Applications REFerence ontology</title>
  <link>https://cms.semweb.pro/talk/16195380</link>
  <description>L’ontologie SmartM2M SAREF (Smart Applications REFerence ontology) a pour
ambition de contribuer à la transformation numérique de l’industrie en
Europe, en prenant en compte les difficultés liées à l’interopérabilité
sémantique sur l’Internet des Objets et les applications web. Il s&#39;agit
d&#39;un standard de l’ETSI (European Telecommunications Standards Institute),
organisme de normalisation européen du domaine des télécommunications qui
travaille à la mise en œuvre de normes et de standards autour des objets
connectés, des données collectées et des applications.

SAREF consiste en une ontologie noyau versionnée, et différents ontologies satellites
versionnées également qui ciblent des domaines métiers comme l&#39;énergie,
l&#39;environnement, le bâtiment, la ville intelligente, l&#39;industrie du future,
l&#39;agriculture numérique, l&#39;automobile, le eHealth, les wearables, la
gestion de l&#39;eau. Chacune de ces ontologies est versionnée.

Je présenterai brièvement le nouveau portail web de l&#39;ontologie modulaire
et versionnée SAREF [1], le framework de développement de SAREF [2], et le
pipeline open source d&#39;intégration et de déploiement continue qui l&#39;outille
[3]. Ce sont là les résultats du projet ETSI STF 578 « Specification of the
SAREF development framework and workflow, and development of the Community
SAREF Portal for user engagement ».

#### Références

[1] SAREF portal - https://saref.etsi.org/

[2] ETSI TS 103 673 V1.1.1 (2020-08) SAREF Development Framework and
Workflow, Streamlining the Development of SAREF and its Extensions

[3] SAREF Pipeline - https://saref.etsi.org/sources/saref-pipeline

[4] ETSI STF 578 - https://portal.etsi.org/STF/STFs/STF-HomePages/STF578</description>
  <dc:date>2024-04-23T13:26+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195067</guid>
  <title>Validation de métadonnées juridiques à l&#39;aide de SHACL</title>
  <link>https://cms.semweb.pro/talk/16195067</link>
  <description>Le projet européen ELI (European Legislation Idenfier) consiste à encourager les portails des journaux officiels des états membres à rendre accessible et réutilisable par les machines les métadonnées des lois. A cette fin, une ontologie commune, basée sur FRBR, a été mise au point et est utilisée par les états membres participants pour publier leurs métadonnées. Les métadonnées sont insérées en RDFa dans les pages de chaque portail législatif comme legifrance.gouv.fr en France.

Afin de faciliter ce travail de publication par les états membres, le projet ELI a développé un outil de validation des métadonnées publiées. Ce validateur ELI est basé sur la nouvelle recommendation W3C SHACL. Il permet d&#39;extraire les métadonnées publiées dans une page web en RDFa, de les confronter aux règles de validation, et d&#39;obtenir un rapport de conformité. Ce validateur est utilisé par les participants au projet ELI pour améliorer la qualité des métadonnées publiées.

Les règles de validation SHACL ont été produites à partir d&#39;un tableur Excel, ensuite converti en RDF. Cette technique permet à un état membre de facilement éditer et customiser le jeu de règles de validation à utiliser.

Nous partagerons ce retour d&#39;expérience sur SHACL et nous interrogerons son articulation avec une ontologie OWL.

#### Références

* [Validateur ELI en ligne (serveur de test)](http://labs.sparna.fr/eli-validator/)
* [ELI](http://eur-lex.europa.eu/eli)
* [Ontologie ELI](http://publications.europa.eu/mdr/eli/) 

#### Auteurs/Autrices
**Thomas Francart** Office des Publications de l&#39;Union Européenne</description>
  <dc:date>2024-04-26T09:55+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195416</guid>
  <title>Siemens feedback on implementing a Thing Description repository using a SPARQL Endpoint</title>
  <link>https://cms.semweb.pro/talk/16195416</link>
  <description>&lt;p&gt;Web of Things (WoT - &lt;a href=&quot;https://www.w3.org/WoT/&quot;&gt;https://www.w3.org/WoT/&lt;/a&gt;) is a standardization
approach for a convergence layer on top of existing IoT architectures
driven by the World Wide Web Consortium (W3C).&lt;/p&gt;
&lt;p&gt;Among other building blocks like Scripting API, Protocol Binding
Templates, and Discovery, WoT defines a central element called Thing
Description (TD - &lt;a href=&quot;https://www.w3.org/TR/wot-thing-description/&quot;&gt;https://www.w3.org/TR/wot-thing-description/&lt;/a&gt;) as an
entry point describing connectivity, security, and semantics of the
underlying physical or virtual entity. TDs provide a set of interactions
based on a small vocabulary that makes it possible to integrate diverse
devices and to allow diverse applications to interoperate.&lt;/p&gt;
&lt;p&gt;In order to make TDs available within a WoT eco-system, a Thing
Description Directory (TDD - &lt;a href=&quot;https://w3c.github.io/wot-discovery&quot;&gt;https://w3c.github.io/wot-discovery&lt;/a&gt;) having
a defined API allowing registration, management, and search of TDs can
be put in place.&lt;/p&gt;
&lt;p&gt;Since Siemens is intensively using TDs within its building automation
suite (see e.g.
&lt;a href=&quot;https://mybuilding.siemens.com/D015628993239/Help/EngineeringHelp/en-US/17505534731.html&quot;&gt;https://mybuilding.siemens.com/D015628993239/Help/EngineeringHelp/en-US/17505534731.html&lt;/a&gt;),
there is a demand for a flexible, scalable, and robust TDD to pave the
path towards future customer offerings. Therefore Siemens started an
exploration project with Logilab aiming at having a solid
proof-of-concept (PoC) as a result.&lt;/p&gt;
&lt;p&gt;We would like to present our PoC implementation of a TDD using a SPARQL
endpoint as TD storage: The main requirement is that the strictly
formatted JSON-LD input data must be transformed into valid RDF to be
stored and to be restored to its original format when being retrieved.
We faced several issues since it is trivial to transform JSON-LD into
RDF triples but it is not straightforward to do the inverse operation,
i.e. enable TD roundtripping.&lt;/p&gt;
&lt;p&gt;We will discuss about the issues we encountered while doing so, present
our solution, and discuss about our contribution to the development and
improvement of the TD/TDD standards.&lt;/p&gt;</description>
  <dc:date>2024-04-22T13:05+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195440</guid>
  <title>Smart[1] Data for Smart Enterprises: the value of linked-standards-data toenable both internal and external interoperability in our multi-energies&#39;company</title>
  <link>https://cms.semweb.pro/talk/16195440</link>
  <description>Our information systems are siloed and based on heterogenous labels, which
breaks real interoperability, automation or machine learning algorithms use.

We need to exchange information between humans and machines to inter-operate
from multiple data domains sources, across various actors, tools, organization
branches, internally with our sites and affiliates and externally with our
multiple partners.

Following ISO15926 part14 principles, published by PCA this summer, associated
with other standards of primary interests such ISO/IEC81346 eg, lessons learnt,
and experiences acquired with AFNOR IDMI[2], IOGP DISC[3], JIP33 &amp;amp; JIP36
CFIHOS[4] and others working groups, we started in January 2021 to implement a
semantic framework to set-up a governance methodology, with rules, common
principles, and guidance&#39;s to provide tools to sustainably structure our
information legacy in a normalized way.

By bridging our data and documents texts to selected and combined standards
classes, using W3C standards, respecting the same context, exclusively
structured through ISO15926-14 properties to set the relationships between
classes, we allow working as a continuum between conceptual, logical, and
physical models using trustable labels that recovered their sense.

To govern this common framework, we developed a mapping strategy based on
several steps to enforce and endorse progressively our company reference
ontology as a result of our mapping efforts to link our data to standards; this
disambiguation or contextualization process loop is a way to formalize our
verifiable requirements thru a generic specification enabling data exchange, in
a way (or a model or a specification) which is not specific to TotalEnergies.

This approach is an intellectual and cultural breakthrough, beyond our current
information management way of working; it implies a change of mindset, supports
a progressive participation of the stakeholders for connecting our data and
taxonomies to higher level conceptual common nodes. We believe this a one of the
keys to debottleneck our fragmented information system.

To support adoption by our organizations, we shall focus attention on pedagogy
while each Use Case&#39;s resolved mappings are sustainable, means qualified and
re-used by third POC or business. Finally, we do believe that a common language
across our disciplines and métiers is key, this standard language creates
unambiguous understanding among all stakeholders internally and externally. This
is a matter of education, federated and shared practices, and adapted tools to
support the methodology. It provides user experience customized interfaces by a
modular and flexible approach, and the development at scale of domains and UCs
knowledge graphs to explore, navigate and use FAIR[5] and safe data.

The relation of this journey in a corporate conducting its digital transition
will be illustrated by concrete outcomes of this initiative and will give firsts
lessons learnt up to now, as ground of further requirements.

[1] SMART: Specific, Measurable, Achievable, Realistic, and Timely

[2] IDMI: Ingénierie des Données et des Modèles pour l&#39;Industrie

[3] DISC: Digital Information Standards Committee

[4] CFIHOS: Capital Facilities Hand Over Specification (IOGP JIP36)

[5] FAIR: Findable, Accessible, Interoperable, Reusable
   
#### Auteurs/Autrices

Linkedin [Jean-Charles Leclerc](https://fr.linkedin.com/in/jean-charles-leclerc-54bbb586)</description>
  <dc:date>2024-04-22T13:19+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195411</guid>
  <title>Flexible AI Knowledge Fabrics for Enterprise Event Processing</title>
  <link>https://cms.semweb.pro/talk/16195411</link>
  <description>Data Fabrics are emerging as the most effective means of integrating knowledge
throughout the Enterprise and coupled with Knowledge Graphs they deliver a
unique, symbiotic relationship because the combination streamlines the process
to extract data and build knowledge from the myriad of sources that comprise
Enterprise data.

Data Fabrics are emerging as the most effective means of integrating knowledge
throughout the Enterprise. Experts agree these fabrics are the future of
enterprise analytics and AI. Gartner recommends “Data and analytics leaders must
upgrade to a Data Fabric design that enables dynamic and augmented data
integration in support of their data management strategy.” Forrester states that
“Enterprise architecture (EA) pros should use data fabric to democratize data
across the enterprise for various use cases.”

Data fabrics offer a cohesive means of integrating and sharing data regardless
of differences in format, technology, or location. Data fabrics are considered
the most mature means of data integration because they organize the exchange of
semi-structured, unstructured, and structured data—while offering a single
access point to all data.

Knowledge Graphs are essential for governing content in terms of access
management, data provenance, and data quality while unifying the terminology
used to describe these assets across business lines, in an organization.

Data Fabrics and Knowledge Graphs have a unique, symbiotic relationship because
they substantially streamline the processes to extract data from the myriad of
sources that populate these platforms. Knowledge Graphs are key to providing
fundamental capabilities enabling Data Fabrics to accomplish this objective.

During this presentation we will discuss success stories for Supply Chain,
Healthcare, and Intelligent Call Centers as well as best practices for building
Knowledge Graphs and developing a path toward an Enterprise-wide Knowledge
Fabric.

#### Références

Connected Data World - The future of AI in the Enterprise: Entity-Event Knowledge
Graphs for Data-Centric Organizations - October 5, 2021
https://pod.co/the-connected-data-podcast/the-future-of-ai-in-the-enterprise-entity-event
-knowledge-graphs-for-data-centric-organizations

Data.World - Catalog and Cocktails - “Fashion Week but for Data” - Sept 22, 2021
https://youtu.be/J3It3ccKtfc

Chaos Orchestra - Cognitive Graph Models - Sept 2, 2021
https://youtu.be/eguOMlvPmJg

Data Summit Connect - Why Graph Neural Networks (GNNs) are Transforming AI
Knowledge Graphs - May 12, 2021
https://www.dbta.com/DataSummit/2021/default.aspx
https://youtu.be/0F6QKI90ojU

Knowledge Graph Conference - Knowledge Graph Adoption in the Financial Industry -
May 5, 2021
https://www.knowledgegraph.tech/

Enterprise Data World - Entity-Event Knowledge Graphs for Data-Centric Organizations
- April 21, 2021
https://edw2021.dataversity.net/

#### Auteurs/Autrices
Jans Aasman is a Ph.D. psychologist and expert in Cognitive Science - as well as CEO
of Franz Inc., an early innovator in Artificial Intelligence and provider of KnowledgeGraph Solutions based on AllegroGraph. As both a scientist and CEO, Dr. Aasman continues to break ground in the areas of Artificial Intelligence and Knowledge Graphs
as he works hand-in-hand with numerous Fortune 500 organizations as well as government entities worldwide.

https://www.linkedin.com/in/jans-aasman
https://en.wikipedia.org/wiki/Jans_Aasman</description>
  <dc:date>2024-04-22T13:12+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195435</guid>
  <title>Systems Engineering as the foundation for industrial domain ontologies</title>
  <link>https://cms.semweb.pro/talk/16195435</link>
  <description>&lt;p&gt;Model-based systems engineering (MBSE) provides an important capability for
managing the complexities of system development. MBSE empowers the formalism of
system architectures for supporting model- based requirement elicitation,
specification, design, development, testing, fielding, etc.&lt;/p&gt;
&lt;p&gt;However, the modeling languages and techniques are heterogeneous, even within
the same enterprise system, which leads to difficulties for data
interoperability. The discrepancies among data structures and language syntaxes
make information exchange among MBSE models more difficult, resulting in
considerable information deviations when connecting data flows across the
enterprise.&lt;/p&gt;
&lt;p&gt;Therefore, this presentation demonstrates Industrial Ontologies Foundry (IoF)
systems engineering ontology and MBSE ontology which provide meta-models
supporting the various architecture view formalism and MBSE formalism across
lifecycle stages. In particular, knowledge graph models are developed to support
unified model representations to further implement ontological data integration
based on GOPPRRE throughout the entire lifecycle.&lt;/p&gt;
&lt;h4&gt;Références&lt;/h4&gt;
&lt;p&gt;Links to demos, videos, web applications, etc.&lt;/p&gt;
&lt;p&gt;&lt;a href=&quot;https://www.industrialontologies.org/systems-engineering-wg/&quot;&gt;IOF SYSTEMS ENGINEERING WORKING GROUP&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[IOF MBSE ontology &lt;a href=&quot;http://initial%5D%5Bhttps://ieeexplore.ieee.org&quot;&gt;initial][https://ieeexplore.ieee.org&lt;/a&gt;/document/9534721)&lt;/p&gt;
&lt;p&gt;&lt;a href=&quot;https://www.youtube.com/watch?v=LucfbAva37E&quot;&gt;IOF MBSE ontology model generated from architecture model&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href=&quot;https://www.tandfonline.com/doi/full/10.1080/00207543.2021.1971318&quot;&gt;IOF MBSE ontology for co-simulation&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href=&quot;https://link.springer.com/chapter/10.1007/978-3-030-85910-7_24&quot;&gt;IOF MBSE ontology for HLA SIMULATION&lt;/a&gt;&lt;/p&gt;
&lt;h4&gt;Auteurs/Autrices&lt;/h4&gt;
&lt;p&gt;Jinzhi LU, scientist at SCI-STI-DK EPFL. Ph.D. in Division of Mechatronics,
Department of Machine Design, ITM School, kth during 2014 and 2019. Currently, I
am CSEP (04944), co-chair of IoF systems engineering group, a senior member of
China Council on Systems Engineering (CCOSE) , co-founder of MBSEWiki in
Chinese, the head of international department of China MBSE Alliance and TC
member in IEEE SMC MBSE Group.&lt;/p&gt;
&lt;p&gt;Yves Keraron founder of ISADEUS (Innovation Strategy And Digital Engineering
Using Semantics) has always been involved in innovation for industry, first in
the design and development of nuclear facilities, then in the technical digital
information and documentation systems. Yves is an active contributor in
standards and methods development and implementation for data and applications
integration. Engineer from Ecole Central des Arts et Manufactures (Paris), his
PhD work was on the impact of digital technologies on the couplings between
technical, information and human systems.  Twitter : @YvesKeraron&lt;/p&gt;
&lt;p&gt;Dimitris Kiritsis, is Faculty Member at the Institute of Mechanical Engineering
of the School of Engineering of EPFL, Switzerland, where he is leading a
research group on ICT for Sustainable Manufacturing. He serves also as Director
of the doctoral Program of EPFL on Robotics, Control and Intelligent Systems
(EDRS). His research interests are Closed Loop Life cycle Management, IoT,
Semantic Technologies and Data Analytics for Engineering Applications.&lt;/p&gt;</description>
  <dc:date>2024-04-22T13:17+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195385</guid>
  <title>Semantic modeling approach of the Pallas Nuclear project</title>
  <link>https://cms.semweb.pro/talk/16195385</link>
  <description>I Think the semantic modeling approach of the Pallas Nuclear project in the
Netherlands  would be interesting to share in this community, we now really
make progress in this to capture the results of the various design and
engineering disciplines ( exports of the various design tools) into a Common
Data Environment (CDE) were integration takes place based on a taxonomy of
15926 entities and semantic relations and a RDL ( a mix of ISO 15926-4, Posc
Caesar RDL and the IFC4 taxonomy), all based on ISO 15926-11.

Handover to the client takes place by means of a turtle file containing all the
rdf-graphs (in rdf:statements), when applicable referring to documents and IFC
3D model objects. Client imports this turtle file directly into their graph
database to integrate the data with their PLM system (Dassault 3D experience).

However, at this moment I don’t see a possibility to write a paper on this, due
to the pressure of deadlines we agreed with the client. I could give a
presentation and possible a demonstration of the semantic tooling we are using
for the CDE to show the model, RDL, results and output/handover to the client.

Attached a powerpoint with the main topics and characteristics of this real
case.

#### Références
Visionner la présentation</description>
  <dc:date>2024-04-22T14:32+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195398</guid>
  <title>Le code unifié pour les unités de mesure en RDF : le type de données cdt:ucum</title>
  <link>https://cms.semweb.pro/talk/16195398</link>
  <description>Pouvoir décrire des valeurs quantitatives et leur unité est une exigence qui
est commune à de nombreuses applications dans plusieurs secteurs industriels
tels que l&#39;industrie manufacturière, le transport et la logistique, la santé
personnelle et publique, les villes intelligentes, l&#39;énergie, l&#39;environnement,
les bâtiments, l&#39;agriculture et les sciences en général. Nous proposons de le
faire en introduisant un type de données RDF qui s&#39;appuie sur le code unifié
des unités de mesure (UCUM), un système de code destiné à inclure toutes les
unités de mesure utilisées actuellement dans les sciences, l&#39;ingénierie et les
affaires internationales. Le type de données personnalisé introduit dans notre
spécification peut être utilisé pour le codage et l&#39;interrogation simplifiés
de valeurs de quantité, dans une large gamme d&#39;applications où la
représentation et le raisonnement avec des types de quantité et des valeurs
sont plus importants que le raisonnement avec des unités.</description>
  <dc:date>2024-04-22T14:35+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195140</guid>
  <title>Un navigateur pour le web des données</title>
  <link>https://cms.semweb.pro/talk/16195140</link>
  <description>&lt;p&gt;Le premier âge du Web s&#39;est limité à un Web des documents liés,
    décrits en HTML et affichés par un navigateur hypertexte. Avec l&#39;avènement du Web des
    données, ce sont des données liées qui sont échangées entre le client et le serveur. Ces
    données sont encodées avec de multiples vocabulaires métiers, sans être encapsulées
    dans des documents et des descriptions textuelles.&lt;/p&gt;

    &lt;p&gt;Il nous a donc semblé nécessaire de nous interroger sur ce que pourrait être
    un navigateur pour le Web des données, qui ne se limiterait pas à
    l&#39;affichage de documents et permettrait à son utilisateur de parcourir le
    gigantesque graphe global des données liées en choisissant à chaque noeud la
    visualisation la plus adaptée à la tâche en cours.&lt;/p&gt;

    &lt;p&gt;Dans ce but, nous avons réincarné sous une forme moderne les idées
    développées dans le cadre de l&#39;interface utilisateur du logiciel CubicWeb.
    Le résultat est un ensemble de composants libres écrits en &lt;a href=&quot;http://www.ecma-international.org/publications/standards/Ecma-262.htm&quot;&gt;JavaScript&lt;/a&gt;,
    qui peuvent être assemblés puis installés comme une extension des principaux
    navigateurs (&lt;a href=&quot;https://wiki.mozilla.org/WebExtensions&quot;&gt;Web
    Extension&lt;/a&gt; pour Firefox et Chrome).&lt;/p&gt;

    &lt;p&gt;Les données incluses dans des pages HTML (&lt;a href=&quot;https://www.w3.org/TR/rdfa-primer/&quot;&gt;RDFa&lt;/a&gt;, &lt;a href=&quot;http://json-ld.org/&quot;&gt;JSON-LD&lt;/a&gt;), ainsi que celles issues des API (&lt;a href=&quot;https://fr.wikipedia.org/wiki/Representational_state_transfer&quot;&gt;REST&lt;/a&gt;,
    &lt;a href=&quot;https://tools.ietf.org/html/draft-kelly-json-hal-08&quot;&gt;HAL&lt;/a&gt;, &lt;a href=&quot;http://www.hydra-cg.com/&quot;&gt;Hydra&lt;/a&gt;, &lt;a href=&quot;http://json-schema.org/&quot;&gt;JSONSchema&lt;/a&gt;, etc.) peuvent être affichées avec
    la vue choisie par l&#39;utilisateur parmi celles qui correspondent au
    vocabulaire utilisé pour les encoder.&lt;/p&gt; &lt;h5&gt;Références&lt;/h5&gt;&lt;div&gt;Ce projet est utilisé en interne à Logilab. Il aura été annoncé et mis en
    ligne sur une forge publique d&#39;ici novembre.
    &lt;/div&gt;&lt;h5&gt;Auteurs/Autrices&lt;/h5&gt;&lt;div&gt;&lt;strong&gt;Nicolas Chauvat&lt;/strong&gt; est le fondateur et le PDG de Logilab,
    société qui depuis le début des années 2000, a été l&#39;un des précurseurs
    du Web sémantique en France. Logilab a notamment réalisé le logiciel
    libre CubicWeb, conçu pour développer des applications web à partir de
    modèles de données standards ; le site &lt;a href=&quot;data.bnf.fr&quot;&gt;data.bnf.fr&lt;/a&gt; et le site
    &lt;a href=&quot;francearchives.fr&quot;&gt;francearchives.fr&lt;/a&gt;. Logilab organise la conférence SemWeb.Pro depuis
    sa première édition en 2011.&lt;/div&gt;</description>
  <dc:date>2024-04-10T13:53+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195179</guid>
  <title>Feedbacks on Using Semantic web technologies at Framatome (ex. AREVA NP)</title>
  <link>https://cms.semweb.pro/talk/16195179</link>
  <description>Since 2010, Framatome (ex. AREVA NP) is involved in different projects where
semantic web technologies were is used.

These projects are related to data modeling, Interoperability between
applications, Data Exchanges and Classifications.

As a result of these projects, AIRE (AREVA Interoperability Realtime
Environment) and ODIN (Ontology Driven INformation Stystem) have been developed.

The goal of this presentation will be is (1) to introduce these
projects/tools (2) to describe how semantic web technologies is used in these
projects/tools and (3) to give some feedbacks.

#### Auteurs/Autrices

**Hondjack DEHAINSALA**, Phd at Poitiers University and have
the following skills: knowledge Management (Classification, thesaurus and
taxonomy) ; Interoperability and data exchanges ; Standards ISO15926, ISO13584 ;
Deployment engineering 1D et 2D tools.</description>
  <dc:date>2024-04-24T09:00+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/14590445</guid>
  <title>Categories as the future of semantic representation</title>
  <link>https://cms.semweb.pro/talk/14590445</link>
  <description>&lt;p&gt;by Dr Spencer Breiner - US National Intitute for Standards and Technology&lt;/p&gt;
&lt;p&gt;Categories add algebra to graphs and the resulting theory is the future of semantic representation&lt;/p&gt;</description>
  <dc:date>2024-04-22T13:49+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195023</guid>
  <title>Vers un “Linked open data législatif”</title>
  <link>https://cms.semweb.pro/talk/16195023</link>
  <description>L’augmentation constante du flux législatif rend la législation de plus en plus complexe. Cette complexité législative touche aussi l’activité économique et crée des charges supplémentaires pour les citoyens et les entreprises

Faciliter l’accès aux informations législatives est un des points essentiels pour mieux comprendre et construire un gouvernement plus ouvert et plus efficace.

L&#39;objectif du projet “Casemates” est d’instaurer un Journal officiel électronique du Grand-Duché de Luxembourg avec une valeur légale, accessible en ligne à titre gratuit, en conformité avec la Directive européenne 2003/98/CE concernant la réutilisation des informations du secteur public (directive dite « PSI »). Le contenu étant dissocié du contenant les données peuvent être réutilisées quel que soit le contexte et quel que soit le format. Elles peuvent également être interconnectées avec d’autres données et sont lisibles par des machines et des humains.

Le projet “Casemates” est basé sur des technologies sémantiques. Le changement de paradigme que constitue le fait de privilégier la publication légale électronique par rapport au mode de publication actuel d͛&#39;impression sur papier est par ailleurs une étape importante vers une procédure législative essentiellement digitale.

Le projet a également été motivée par la volonté du Gouvernement luxembourgeois de faciliter l&#39;accès aux informations législatives, modernisation qui constitue par ailleurs un important levier de stimulation du dynamisme économique.

Le projet “Casemates” utilise toute la puissance  du web sémantique, comme définie par le W3C dans la perspective du « Web de données » (linked open data). Il s&#39;agit de structurer les ressources pour que les machines puissent mieux les exploiter mais aussi de les mettre à disposition avec une licence qui autorise leur réutilisation par les entreprises, le monde associatif ou toute personne intéressée. Le projet Casemates permet de récupérer et réutiliser aussi bien les fichiers de contenu que les métadonnées descriptives de la législation et des projets législatifs du Luxembourg, sous l&#39;adresse data.legilux.public.lu. Les textes législatifs sont disponibles en différents, notamment en format XML selon le schéma xml LegalDocML pour la structuration du texte, et ELI pour les description des relations.

Les métadonnées sont publiées dans le langage du web sémantique, RDF, selon deux modèles: le modèle JOLux pour décrire les métadonnées des projets et textes législatifs de la manière la plus fine, le modèle ELI (European Legislation Identifier), adopté par plusieurs pays européens ainsi que l’Union Européenne pour partager leurs données législatives dans un format commun et interopérable.

Les vocabulaires contrôlés sont disponibles dans différents formats (xls, html, rdf/skos).

Toutes les ressources décrites disposent d’identifiants pérennes sous forme d’URIs. Les URIs des ressources législatives (actes, consolidations, codes etc.) sont attribuées selon le standard ELI.
    
#### Références

*[http://legilux.public.lu](http://legilux.public.lu)
*[http://data.legilux.public.lu](http://data.legilux.public.lu)

#### Auteurs/Autrices

**John Dann**
Ministère d’Etat
Directeur du Journal officiel du Grand-Duché de Luxembourg
Président de la Task Force European Legislation Identifier « ELI »</description>
  <dc:date>2024-04-25T15:31+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195017</guid>
  <title>Visites de musées à distance par un robot autonome intelligent</title>
  <link>https://cms.semweb.pro/talk/16195017</link>
  <description>Le projet Azkar réunit le monde de la robotique d&#39;assistance et celui du Web et des données liées. Son but est d&#39;expérimenter la conduite d&#39;un robot mobile via le Web ainsi que l&#39;intelligence artificielle supportée par les formalismes, schémas et jeux de données du Web sémantique dans le cadre de visites muséales. Une première version de production de ce robot est en cours d&#39;expérimentation au Musée de la Grande Guerre de Meaux et à la Cité des Sciences de la Villette.

Les lieux ainsi visités à distance, les espaces et les objets qu&#39;ils contiennent sont décrits à l’aide d’une ontologie des scènes, objets, points d&#39;observations et parcours propres au musée. La géographie et les collections sont capturées dans des données liées et intégrées avec des ressources Web externes au musée pour enrichir les scènes et les objets observés.

Sur cette base, nous avons conçu un démonstrateur permettant de proposer des médias externes en fonction des vitrines visitées, en implémentant un requêtage SPARQL sur un triplestore préalablement peuplé. Ce démonstrateur a fait l&#39;objet d&#39;une démonstration à ISWC 2016 lors de laquelle le robot, piloté depuis le Japon se déplaçait dans nos locaux de Sophia Antipolis et déclenchait une requête SPARQL à l&#39;approche d&#39;un point d&#39;intérêt afin de récupérer des ressources et médias externes à proposer en complément de cette scène.
Dans une seconde phase, actuellement en cours, nous cherchons à proposer, en plus des ressources préalablement enregistrées, des ressources suggérées à la volée à partir de DBPedia ou par Discovery Hub ou un service similaire. Sont aussi prévus des filtres et des outils de priorisation en fonction du type de média, de leur pertinence vis à vis de la scène à enrichir, du public (âge, niveau d&#39;éducation, etc.) et de critères propres au guide qui prépare la visite.

L&#39;évolution suivante sera d&#39;étendre ces outils à la recommandation de parcours. Ainsi le robot pourra suggérer de lui-même des parcours en fonction du temps disponible et des thèmes que l’on désire mettre en avant lors de la visite : Par exemple &quot;AZKAR, propose-moi une visite du Musée de la Grande Guerre de 45 minutes centrée sur l’année 1914 et les vêtements pour une classe de CM2&quot;

#### Références

* [Site Web du projet](http://www.azkar.fr/) voir les articles dans les sections « expérimentations » et « démos/conférences » qui sont agrémentés de nombreuses photos et vidéos. 

**Vidéos** :
   * [visite disante du musée de la grande guerre](http://www.azkar.fr/2016/12/14/visite-distante-du-musee-de-la-grande-guerre/)
   * [Blend Web Mix Lyon 2016](http://www.azkar.fr/2016/11/04/blend-web-mix-2016-lyon/)
   * [https://youtu.be/RRotRiNUls4?t=2m2s](https://youtu.be/RRotRiNUls4?t=2m2s)

** Prix scientifiques obtenus :
    Best demo Award ISWC 2016 : [Demo award](http://www.azkar.fr/2016/10/26/iswc-2016-best-demo-award-for-azkar/)


#### Auteurs/Autrices

**Michel Buffa**, enseignant chercheur à l’Université de Nice, membre de l’équipe projet WIMMICS commune à INRIA
et au laboratoire I3S de Sophia-Antipolis. Depuis 2005, il a mené ses recherches sur les applications du Web
Sémantique : wikis sémantiques, analyse des réseaux sociaux, outils de développement basés Web pour le Web
sémantique.
Aujourd’hui il est responsable scientifique de deux projets de recherche : le premier, AZKAR, financé par la BPI,
concerne la visite de musées à distance par un robot mobile intelligent, commandé via le Web, l’autre, financé par
l’ANR, a démarré en Janvier 2017 et vise au rapprochement Web audio/musique et Web Sémantique, avec Deezer, Radio
France, IRCAM, et Parisson comme partenaires. Il a publié ses travaux dans les principales conférences internationales
de son domaine et a été dans les comités d’organisations/chair de nombreux workshops et conférences. Il est auteur de
trois MOOCS sur HTML5 et JavaScript réalisés pour le W3C, créés entre 2015 et 2017, qui ont attiré plus de 300.000
personnes sur la plateforme EDx du MIT/Harvard.</description>
  <dc:date>2024-04-25T15:28+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16194998</guid>
  <title>Communicating culture WITH an interoperable platform for creative reuse of digital cultural heritage</title>
  <link>https://cms.semweb.pro/talk/16194998</link>
  <description>WITH is a http://withculture.eu/ that provides [services](https://www.youtube.com/watch?v=D6WPdv8fMsc)
for content aggregation, management, interoperability, visualization, publication and reuse. It uses
datasets published from different portals and repositories of Linked Open Data, together with a
powerful search interface, a multi-functional backend and a fully accessible API.

Cultural content can be imported through the [MINT platform](http://mint-projects.image.ntua.gr/locloud),
many other sources of formatted data, and primarily through APIs provided by different institutions from
all over the world, like[Europeana](http://www.europeana.eu/portal/), the [Digital Public Library of America](https://dp.la/), 
[Rijks Museum](https://www.rijksmuseum.nl/en),[National Library of Australia](http://www.nla.gov.au/)
and many others.

The platform allows to easily search for the cultural resources and to group them in collections.
Search is easy, fast and precise. Using dynamically generated facets, you can narrow down
your results with precision. Items can be saved in collections. Through the WITH API, metadata
associated to items in a collection can be exported as ontologies assertions in OWL format and
can later be used in different reasoning tasks to enrich the quality of the content in the platform.
The items imported to the platform contain metadata describing the items, but can be further
annotated to provide additional information. The annotation process can be done manually by
adding tags from different thesaurus and vocabularies, or automatically through term detection,
natural language processing and image analysis using machine learning. These annotations
can be accepted or rejected by users. You can also add Geo tags corresponding to locations
associated to the item.

Developers can create their own new external tools using the API. Our first tool is a classifier
that can be trained using the exported content from different collections and is able to predict
whether other items should belong or not to a target collection.

Items from collections can be used to create exhibitions and present them interactively. This
way, innovation is promoted and we also demonstrate the social and economic value of the
cultural content, while creative new uses for digital cultural heritage are introduced.
The WITH platform provides free and easy access to Linked Open Data and artificial
intelligence tools that enrich the content with state of the art algorithms.

#### Auteurs/Autrices

**Dr Vassilis Tzouvaras**​ received the B-Eng in the Dept. of Electronic &amp;amp; Systems Engineering of
Essex University, the M-Eng in the Dept. of Automatic Control &amp;amp; Systems Engineering of
Sheffield University in UK, and the Ph.D. in the EECE Dept. of NTUA in the field of knowledge
technologies. His research interests include semantic web technologies, metadata
interoperability, reasoning and knowledge representation.

He has published 10 Journal papers and 40 conference papers. He is active in the Europeana 
developments and many related projects (Athena, Videoactive, Euscreen, EuropeanaConnect);
he is member of the Core Expert Group of Europeana Thematic Networks v1.0, v2.0.</description>
  <dc:date>2024-04-25T15:02+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16194969</guid>
  <title>Un navigateur pour le web des données</title>
  <link>https://cms.semweb.pro/talk/16194969</link>
  <description>Le premier âge du Web s&#39;est limité à un Web des documents liés,
décrits en HTML et affichés par un navigateur hypertexte. Avec l&#39;avènement du Web des
données, ce sont des données liées qui sont échangées entre le client et le serveur. Ces
données sont encodées avec de multiples vocabulaires métiers, sans être encapsulées
dans des documents et des descriptions textuelles.

Il nous a donc semblé nécessaire de nous interroger sur ce que pourrait être
un navigateur pour le Web des données, qui ne se limiterait pas à
l&#39;affichage de documents et permettrait à son utilisateur de parcourir le
gigantesque graphe global des données liées en choisissant à chaque noeud la
visualisation la plus adaptée à la tâche en cours.

Dans ce but, nous avons réincarné sous une forme moderne les idées
développées dans le cadre de l&#39;interface utilisateur du logiciel CubicWeb.
Le résultat est un ensemble de composants libres écrits en [JavaScript](http://www.ecma-international.org/publications/standards/Ecma-262.htm),
qui peuvent être assemblés puis installés comme une extension des principaux
navigateurs [Web Extension](https://wiki.mozilla.org/WebExtensions) pour Firefox et Chrome).

Les données incluses dans des pages HTML [RDFa](https://www.w3.org/TR/rdfa-primer/), 
[JSON-LD](http://json-ld.org/), ainsi que celles issues des API
[REST](https://fr.wikipedia.org/wiki/Representational_state_transfer),
[HAL](https://tools.ietf.org/html/draft-kelly-json-hal-08), [Hydra](http://www.hydra-cg.com), 
[JSONSchema](http://json-schema.org/), etc.) peuvent affichées avec la vue choisie par
l&#39;utilisateur parmi celles qui correspondent au vocabulaire utilisé pour les encoder.

#### Références

Ce projet est utilisé en interne à Logilab. Il aura été annoncé et mis en
ligne sur une forge publique d&#39;ici novembre.

#### Auteurs/Autrices

**Nicolas Chauvat** est le fondateur et le PDG de Logilab,
société qui depuis le début des années 2000, a été l&#39;un des précurseurs
du Web sémantique en France. Logilab a notamment réalisé le logiciel
libre CubicWeb, conçu pour développer des applications web à partir de
modèles de données standards ; le site [data.bnf.fr](data.bnf.fr) et le site
[francearchives.fr](francearchives.fr).

Logilab organise la conférence SemWeb.Pro depuis sa première édition en 2011.</description>
  <dc:date>2024-04-24T14:10+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/14590432</guid>
  <title>Introduction to Category Theory and the Semantic Web</title>
  <link>https://cms.semweb.pro/talk/14590432</link>
  <description>&lt;p&gt;by Henry Story - Cooperating Systems UG&lt;/p&gt;</description>
  <dc:date>2024-04-22T14:35+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/14590846</guid>
  <title>Teaching Domain Experts to Model Categorically</title>
  <link>https://cms.semweb.pro/talk/14590846</link>
  <description>&lt;p&gt;by Donald Thompson - Co-founder of MAANA&lt;/p&gt;</description>
  <dc:date>2024-04-22T13:52+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/14590818</guid>
  <title>Statebox - Formally verified process language</title>
  <link>https://cms.semweb.pro/talk/14590818</link>
  <description>&lt;p&gt;by Jelle Herold - Founder of Statebox&lt;/p&gt;</description>
  <dc:date>2024-04-22T13:51+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16194974</guid>
  <title>Contribution des standards du Web sémantique aux développements des normes  d’intégration et d’échange de données industrielles</title>
  <link>https://cms.semweb.pro/talk/16194974</link>
  <description>L’industrie a développé ces 30 dernières années un certain nombre de normes spécifiques à l’échange de données industrielles. Ces normes visent à répondre à différents besoins comme par exemple celui de l’interopérabilité entre systèmes, la collaboration entre plusieurs acteurs dans le cadre de partenariats ou de l’entreprise étendue, jusqu’à assurer un archivage long-terme.

Nous pouvons citer : l’ISO 15926 pour les usines de procédé et en particulier les installations pétrolières, la norme 16739 dite IFC (Industry Foundation Classes) pour le domaine de la construction de bâtiments, les normes ISO 10303 dites STEP pour l’échange de données produits manufacturiers, les normes de catalogues électroniques de description des produits industriels et de leurs propriétés (ISO 13584 dite PLIB).

Ces normes, toutes issues du comité ISO/TC 184/SC 4 Systèmes d’automatisation et Intégration, ont été spécifiées à l’aide du langage EXPRESS (ISO 10303-11), y compris les nombreuses ontologies comme celles de PLIB.
C’est donc de manière toute naturelle que ces normes ont considéré leur évolution dans des langages du Web Sémantique pour leur mise en œuvre lors de l’échange des données géométriques, schématiques, de spécifications, de données d’exploitation et de maintenance à l’aide des infrastructures web actuelles.

En particulier la norme ISO 15926 a été traduite en OWL et elle est mise en œuvre sur de nombreux projets industriels qui exploitent son modèle de données, sa bibliothèque de référence et ses principes pour échanger des données conformément à ces modèle et référence afin de mieux supporter les processus du cycle de vie d’une usine.

La présentation, à partir d’un panorama des normes et d’un état de l’art industriel au niveau international, soulignera les enjeux industriels d’une mise en œuvre concrète des standards du web sémantique pour supporter l’application des nouvelles méthodes d’ingénierie systèmes et l’intégration des données pendant tout le cycle de vie des systèmes industriels.

Elle s’appuiera sur des exemples concrets d’application issus de projets industriels et donnera les perspectives de développement de ces orientations, en particulier en relation avec l’AFNOR et l’ISO/IEC.
    
#### Références
[ISO/TC 184/SC 4 Données Industrielles](https://www.iso.org/committee/54158.html)
   
#### Auteurs/Autrices

**Christophe MOUTON**, Président de la commission AFNOR/CP IDMI – Ingénierie des Modèles et
des Données pour l’Industrie, EDF – DIPNN – projet PLM du nucléaire.

**Yves KERARON**, Animateur Groupe de travail ISO 15926 de la commission AFNOR/CP IDMI, Président
et fondateur d’ISADEUS, Innovation Strategy And Digital Engineering Using Semantics.</description>
  <dc:date>2024-04-24T14:12+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/14590788</guid>
  <title>Generic modeling tool extraction based on Category Theory</title>
  <link>https://cms.semweb.pro/talk/14590788</link>
  <description>&lt;p&gt;by Dr Dominique Enradote - Model-based systems engineering expert at Airbus&lt;/p&gt;</description>
  <dc:date>2024-04-22T13:42+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195452</guid>
  <title>DAGOBAH : Des outils pour l&#39;interprétation automatique de données tabulaires</title>
  <link>https://cms.semweb.pro/talk/16195452</link>
  <description>&lt;p&gt;La valorisation des données tabulaires est un enjeu stratégique pour les
organisations car leurs connaissances sont en grande partie intégrées dans ces
structures (csv, excel, ods, gsheet). L&#39;entreprise Orange ne fait pas exception
à cet état de fait. Avec plus de 140 000 employés à travers le monde et un
portfolio de clients et de domaines variés, Orange produit quotidiennement une
quantité phénoménale de données tabulaires hétérogènes. Ces tables servent à la
fois de vecteur et de support de stockage des connaissances. Elles sont
profondément intégrées au sein de nombreux services administratifs (RH,
finances, etc.), techniques (logs produits par les infrastructures de réseau,
etc.) et commerciaux (catalogues de produits multimédias, etc.). Par conséquent,
leur interprétation automatique ouvre la voie à une meilleure efficacité
opérationnelle et à des services innovants tirant partie de la sémantique des
données.&lt;/p&gt;
&lt;p&gt;L&#39;utilisation de techniques d&#39;interprétation automatique de tables (Semantic
Table Interpretation, STI) permet d&#39;adresser efficacement ce challenge. Ces
techniques ont pour objectif de rendre la sémantique des données plus explicite
en établissant des correspondances entre les éléments de la tables (les colonnes
et les cellules) et des entités décrites dans des graphes de connaissances
(encyclopédiques comme Wikidata/DBPedia ou d&#39;entreprise). Les annotations
sémantiques produites par les techniques de STI peuvent être valorisées dans
plusieurs domaines d&#39;applications : l&#39;enrichissement de graphes de
connaissances, la correction et l&#39;augmentation des données brutes, les moteurs
de questions réponses, la recherche et la gouvernance de jeux de données ou
encore plus généralement la gestion des connaissances. En particulier, nous
proposons d&#39;établir une boucle vertueuse dans laquelle le graphe de
connaissances est tout d&#39;abord utilisé pour interpréter sémantiquement les
données tabulaires puis enrichi grâce aux annotations qui en résultent.&lt;/p&gt;
&lt;p&gt;Cette présentation introduit DAGOBAH, une approche de STI développée par la
recherche d&#39;Orange en collaboration avec EURECOM. DAGOBAH permet de réaliser des
tâches allant du pré-traitement des tables (extraction d&#39;en-têtes, détection de
l&#39;orientation, etc.) jusqu&#39;à l&#39;identification de propriétés sémantiques entre
les colonnes en passant par la désambiguïsation des mentions contenues dans les
cellules et le typage des colonnes.&lt;/p&gt;
&lt;p&gt;Pour améliorer la pertinence des outils DAGOBAH et favoriser l&#39;adoption des
technologies de STI au sein de l&#39;entreprise, notre équipe de recherche utilise
deux leviers qui seront l&#39;objet de la deuxième partie de cette présentation :&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;La participation, depuis trois années (avec un 1er prix en 2021), au challenge
  SemTab (intégré à la conférence ISWC), une compétition scientifique
  internationale de référence pour les techniques de STI.&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Une approche Test&amp;amp;Learn matérialisée par la mise à disposition au sein de
  l&#39;entreprise d&#39;une API et d&#39;une interface graphique pour l&#39;annotation de
  données tabulaires dont une démonstration sera proposée en fin d&#39;intervention.&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h4&gt;Références&lt;/h4&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;Présentation effectuée dans le cadre de l&#39;Industry &lt;a href=&quot;https://www.youtube.com/watch?v=LS76NLa_xbw&amp;amp;t=153s&quot;&gt;Track ISWC2021&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Présentation effectuée dans le cadre du &lt;a href=&quot;https://www.youtube.com/watch?v=y1MTfK3XDTM&amp;amp;t=1s&quot;&gt;challenge SemTab2021 ISWC2021&lt;/a&gt;
Cette vidéo comprend notamment une démo de l&#39;interface graphique de DAGOBAH (5&#39;55)&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h4&gt;Auteurs/Autrices&lt;/h4&gt;
&lt;p&gt;&lt;strong&gt;Yoan Chabot&lt;/strong&gt; est chercheur au sein de l&#39;entité Orange Innovation/DATA-AI d&#39;Orange
depuis Novembre 2014. Il a obtenu un double doctorat Université de
Bourgogne/University College Dublin en 2014 suite à des travaux s&#39;intéressant
à l&#39;application des techniques d&#39;ingénierie des connaissances au domaine
de la criminalistique informatique. Au sein d&#39;Orange, il dirige des projets
de recherche visant à utiliser des graphes de connaissances dans des domaines
variés (data management, cybersécurité).&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Pierre Monnin&lt;/strong&gt; est chercheur au sein de l&#39;entité Orange Innovation/DATA-AI
d&#39;Orange depuis Septembre 2020. Il a obtenu son doctorat à l&#39;Université de
Lorraine en 2020 pendant lequel il a travaillé sur l&#39;extraction et la
comparaison de connaissances dans le domaine biomédical de la pharmacogénomique
dans le cadre du projet ANR PractiKPharma. Ses travaux à Orange portent sur
l&#39;extraction de connaissances à partir de données tabulaires et l&#39;intégration de
données incertaines dans des graphes de connaissances. Il a été general co-chair
d&#39;ALGOS 2020 et sera Proceedings &amp;amp; Metadata co-chair d&#39;ISWC 2022.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Thomas Labbé&lt;/strong&gt; est chercheur au sein de l&#39;entité Orange Innovation/IT&amp;amp;Services
depuis 2013, ainsi qu&#39;au laboratoire d&#39;Intelligence Artificielle de l&#39;IRT b&amp;lt;&amp;gt;com
depuis 2020. Diplômé de l&#39;ENSEA et de l&#39;Université Polytechnique de Valencia, il
contribue à différents domaines de recherche avant de se spécialiser dans
l&#39;exploitation des données textuelles. Après avoir élaboré des algorithmes de
recommandation basés sur des taxonomies et des graphes de connaissances, il
travaille aujourd&#39;hui sur l&#39;extraction d&#39;information à partir de données non
structurées et semi-structurées sur des domaines ouverts ou plus spécialisés
comme la génétique.&lt;/p&gt;</description>
  <dc:date>2024-04-22T13:23+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/14590835</guid>
  <title>Conexus: Categorical Informatics at Scale</title>
  <link>https://cms.semweb.pro/talk/14590835</link>
  <description>&lt;p&gt;by Dr Ryan Wisnesky - Co-founder of Conexus&lt;/p&gt;</description>
  <dc:date>2024-04-22T13:51+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16194950</guid>
  <title>PciLab, une navigation par les données dans l’inventaire français du Patrimoine culturel immatériel</title>
  <link>https://cms.semweb.pro/talk/16194950</link>
  <description>Le projet PciLab1 a pour objectifs la valorisation publique de l’Inventaire français du patrimoine culturel immatériel (PCI) en explorant les possibilités qu’offrent aujourd’hui le web sémantique et le liage de données. Dans un contexte de diversité culturelle et linguistique, il s’agit notamment d’envisager de nouvelles formes de navigation afin de restituer au mieux les systèmes de pratiques et de savoir-faire participant du PCI et d’expérimenter l’indexation collaborative.

Porté par l’ethnopôle InOc Aquitaine, Opérateur régional pour l’occitan et Ethnopôle [Pôle national de Recherches et de Ressources en Ethnologie] sous Maîtrise d’ouvrage de la Direction du pilotage de la recherche et de la politique scientifique (DPRPS) du Ministère de la culture, il s’inscrit dans la dynamique d’inventaire mise en œuvre par celui-ci à partir de 2008, dynamique associant des collaborateurs au statut divers : associations, personnes ressources, universitaires, EPCC, ethnopôles… Régulièrement rassemblés par le ministère pour des bilans d’étape et pour échanger sur les protocoles d’inventaire, ils constituent ainsi aujourd’hui une communauté d’acteurs du PCI. Des idées, des dynamiques naissent peu à peu de ces rencontres, chaque collaborateur s’enrichissant de l’expérience des autres. C’est ainsi qu’après sept années d’inventaire, la question d’une valorisation, en ligne, accessible au plus grand nombre s’est fait jour. Le travail a été guidé par deux axes, dont la définition d’une base de connaissances structurées avec, notamment la création d’une ontologie. Cette dernière crée un nouveau langage tant syntaxique que sémantique (Bachimont, 2007) reposant sur un système conceptuel issu, pour PciLab, de Wikidata. L’organisation du corpus en notices interrogeables a obligé à réfléchir à la classification spatio-temporelle (Bowker, 1999) des pratiques de l’inventaire, tout en rendant compte du caractère vivant de celles-ci.

L’ensemble des données « sémantiques » du projet, correspondantes aux données Wikidata, sont stockées dans le moteur de recherche Elastic Search, tandis que les fonctionnalités avancées de traitement de ce même moteur de recherche permettent la mise à disposition des données via une barre de recherche par auto-compléetion. À l’inverse d’une recherche par contenu, habituellement utilisée sur les sites web de valorisation des inventaires du PCI, PciLab propose une recherche par données, via les tags « concepts » présents dans Wikidata.
Afin de donner une plus grande autonomie aux administrateurs du site, le CMS Joomla est utilisé. Pour autant, l’ensemble des couches de traitement et de mise à disposition des données sont écrites indépendamment du CMS. Les éléments importants du projet sont codés en tant que librairies indépendantes, agnostiques par rapport à tout framework et utilisées via le gestionnaire de dépendances Composer.

[1] [PciLab](www.pci-lab.fr) sera accessible à en octobre 2017 (hébergement chez HumanNum).

#### Auteurs/Autrices

**Mélanie Larché** poursuit sa licence d’Anthropologie sociale et culturelle, obtenue à l’Université Aix-Marseille, par un Master Valorisation des Patrimoines et des politiques culturelles territoriales à l’université de Pau et des Pays de l’Adour. 

Son stage de master 2 à l’InOc Aquitaine porte sur les valorisations numériques sur Internet du Patrimoine culturel immatériel. Elle travaille sur Sondaqui.com et créé l’exposition virtuelle, pendant de l’exposition temporaire du moment au Musée d’ethnographie de l’Université de Bordeaux, (Extra)ordinaire quotidien (http://patrimoine-immateriel-aquitaine.org/). En octobre 2015, Mélanie Larché obtient une bourse Cifre pour débuter un doctorat au sein de l’ethnopôle InOc Aquitaine sur les médiations numériques du Patrimoine culturel immatériel. Dès lors, PciLab devient son terrain d’étude principal.</description>
  <dc:date>2024-04-24T13:44+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16194943</guid>
  <title>Enjeux d&#39;une plateforme sémantique de valorisation de contenus</title>
  <link>https://cms.semweb.pro/talk/16194943</link>
  <description>Afin de répondre aux besoins sans cesse grandissants d&#39;interopérabilité et d&#39;évolutivité des systèmes d&#39;information, Perfect Memory a bâti une plateforme de réconciliation, d&#39;enrichissement et d&#39;exploitation sémantique capable d&#39;intéropérabiliser des sources de données de toute nature.

En mettant en oeuvre les standards du Web sémantique, tout en respectant la norme OAIS, le middleware sémantique Perfect Memory permet de réconcilier des sources de données hétérogènes en automatisant leur harmonisation selon des ontologies de domaine identifiées.

En outre, son moteur de workflow permet d&#39;orchestrer la construction progressive de graphes sémantiques riches, bénéficiant des traitements métier fournis par les agents connectés à la plateforme.
Grâce à la mise en oeuvre de Connecteurs sémantiques, les messages échangés sont des paquets sémantiques autonomes, permettant aux agents destinataires d&#39;exploiter l&#39;information transmise, et de soumettre le fruit de leur traitement métier selon la même approche.

Des interfaces graphiques dédiées à la consultation, la recherche ou plus généralement l&#39;exploitation métier de cette connaissance harmonisée, restituent à leur tour toute la richesse de l&#39;approche sémantique en proposant par exemple, une recherche riche multi-axes, une navigation par graphe ou une catégorisation fine des contenus.

La présentation illustrera avec une démonstration d&#39;un cas d&#39;usage métier, comment les technologies sémantiques mises en oeuvre par Perfect Memory apportent une solution industrielle multi-agent sémantique aux problématiques de désilotage, d&#39;exploitation cross-services et de monétisation des données de l&#39;entreprise.

La plateforme Perfect Memory, primée dans plusieurs événements scientifiques et industriels, est utilisée aujourd&#39;hui par plusieurs grands acteurs des médias, comme RTBF , RTL Belgique, Radio France et TV France International, mais aussi dans d&#39;autres verticaux comme la gestion muséale (Fédération Wallonie-Bruxelles), la presse numérique (Le Point) ou encore le retail.

#### Références

**Vidéos**

* [Web as a Brain](https://www.youtube.com/watch?v=FiVKU6ZcBHg)
* [Mediamap+](https://www.youtube.com/watch?v=pf5yVmhcwkU)

#### Application
Portail de vente du catalogue audiovisuel de TV France International dont l&#39;indexation et la recherche se basent sur la technologie Perfect Memory: https://www.screenopsis.com

#### Auteurs/Autrices

**Cédric Klein**

Diplômé de l’Université de Technologie de Compiègne (UTC), il est responsable des services professionnels dont la mission principale est l&#39;accompagnement de nos clients et partenaires dans l&#39;expression de leur besoin et l&#39;intégration de la solution Perfect Memory. Il allie compétences collectives et pédagogie au service de la conduite de projets à succès afin d&#39;apporter le meilleur de la technologie Perfect à nos utilisateurs.
Il partage également son expertise de la plateforme, et notamment des modèles sémantiques, avec les collaborateurs, partenaires, clients et membres de la communauté au cours d&#39;événements professionnels et de formations pédagogiques.

**Guillaume Rachez**
Diplômé de l’Université de Valenciennes en tant qu’Ingénieur des Systèmes Images et Sons, il est spécialisé dans les technologies sémantiques et l’indexation de médias. Collaborateur de Perfect Memory depuis les premières heures, il a contribué à la mise en œuvre des concepts fondateurs de la plate-forme.
Apportant son expertise et son approche pédagogique sur la modélisation de données et les outils de traitement de l’information, il accompagne tout client ou partenaire dans la mise en œuvre de leur Profil sémantique. Passionné de cinéma et d’innovation, les enjeux à la fois culturels et technologiques qu’adressent Perfect Memory sont au cœur de ses préoccupations.</description>
  <dc:date>2024-04-24T13:40+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195351</guid>
  <title>SemApps : une boite à outils pour déployer facilement des systèmesd&#39;information sémantiques</title>
  <link>https://cms.semweb.pro/talk/16195351</link>
  <description>SemApps est une boîte à outils logicielle permettant de déployer et de
configurer facilement des systèmes d&#39;information sémantiques. Il permet de
produire et de partager des données hautement structurées, compréhensibles
par les humains et les machines.

Construit sur les standards RDF, OWL, SPARQL, LDP, ActivityPub et sur la
spécification SOLID, SemApps est facilement interopérable avec le Linked
Open Data ainsi qu’avec les plateformes respectant les standards du web
sémantique.

SemApps permet de créer des bases de connaissances sémantiques et
collaboratives, de cartographier la plupart des domaines métiers, de créer
des réseaux sociaux P2P et des places de marché décentralisées.
Son objectif majeur : Favoriser la mise en réseau des acteurs grâce à la
mise en synergie de leurs systèmes d’information. Permettre ainsi la
création d’un réseau social de la transition dont l’architecture serait
décentralisée.


SemApps est constitué de briques logicielles, fonctionnelles et métiers :

   - Une base de donnée sémantique, appelée TripleStore : Jena TDB dans la
   version générique
   - Un serveur Solid + ActivityPub développé en Node.JS, lui-même
   décomposable en micro-services substituables :
   - Un front-end standard permettant l’affichage des données dans des
   formats multiples.
   - L’ontologie PAIR et l’approche métier associée (pour la version
   générique de SemApps).
   - + de nombreux services métiers qui pourront être construits autour du
   coeur de SemApps.


Ces briques sont conçues de manière modulaire, elles se relient entre elles
et avec d’autres :

   - Par les technologies, protocoles et standards du web sémantique :
   RDF-OWl, Sparql, LDP, SOLID, ActivityPub.
   - Par des ontologies (assimilables à des vocabulaires) communes ou
   alignées
   - Par une architecture de type « microservices » , permettant à chacune
   des briques d’être déployée à la carte, y compris dans des environnements
   autres que SemApps.


SemApps propose un environnement technologique où les données, les
serveurs et les interfaces sont dissociés, facilement connectables et
aisément substituables.

#### Références
   - Documentation : https://semapps.org/
   - Démos et vidéos en ligne :
   https://www.youtube.com/channel/UCg7sYh_Y8cHFT4s82K4SVmA/
   - Github : https://github.com/assemblee-virtuelle/semapps
   - Article en français : virtual-assembly.org/semapps

#### Auteurs/Autrices&amp;lt;

Simon Louvet : Architecte web et développeur senior. Co-fondateur de Data
Players http://data-players.com, une entreprise spécialisée dans les
technologies du web distribué et l&#39;interopérabilité. Contributeur actif de
l&#39;Assemblée Virtuelle http://virtual-assembly.org/ et d&#39;Alternatiba
https://alternatiba.eu/.

Guillaume Rouyer : Co-fondateur de l&#39;Assemblée Virtuelle
http://virtual-assembly.org et des Chemins de la Transition
http://lescheminsdelatransition.org.</description>
  <dc:date>2024-04-22T14:16+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195042</guid>
  <title>L&#39;Étincelle Triplex : un triple store pour ISTEX</title>
  <link>https://cms.semweb.pro/talk/16195042</link>
  <description>Le projet ISTEX est un investissement d&#39;avenir soutenu par l’Agence Nationale de la Recherche visant à doter la France d&#39;une bibliothèque numérique scientifique reposant sur deux axes complémentaires : d&#39;une part, une acquisition massive de publications scientifiques (18 millions) couvrant l&#39;ensemble des disciplines et d&#39;autre part, la mise en place d&#39;une plateforme unique d&#39;hébergement, de gestion et d&#39;accès à ces ressources.

Après avoir lancé en janvier 2016 une première expérimentation visant à publier, selon les normes du web sémantique, des données extraites du projet ISTEX (et présentée à SemWeb Pro en 2016), l’Inist­-CNRS a consolidé cette dernière par l’expérimentation Triplex.

Elle a pour objectif d’agréger de manière cohérente toutes les données extraites du fonds ISTEX et sémantisées dans un outil
dédié (lodex). Cette agrégation mène à un SPARQL endpoint contenant un graphe global des données ISTEX.

Les données sont publiées en respectant un profil d’application spécifique. Cette approche par profil se différencie des
autres approches, en permettant de créer un graphe progressivement.
Le résultat doit permettre à des chercheurs et à des documentalistes de faire des requêtes spécifiques sur les données
ISTEX structurées en graphe.

Nous avons retenu une solution décomposée en quatre points :

* création d’une ontologie globale pour ISTEX, 
* création d’un triplestore (SPARQL) agrégeant toutes les données produites et structurées via l’outil lodex,
* création automatique / semi-automatique / manuelle de liens vers des bases similaires,
* tester des exemples d’inférences.


Après avoir détaillé cette solution, nous présenterons un exemple d’étude bibliométrique à l’aide de requêtes SPARQL.
Dans le graphe de données que nous interrogerons, il y a toujours un chemin pour arriver aux documents en plein texte exposés par l’API ISTEX. Par conséquent, c’est une autre façon de diffuser et d’exploiter les ressources acquises.

#### Références

* [https://data.istex.fr](https://data.istex.fr
* [https://www.youtube.com/channel/UCXJjwCr-sfTZsFomFejEkEw/videos](https://www.youtube.com/channel/UCXJjwCr-sfTZsFomFejEkEw/videos)
* [https://github.com/Inist-CNRS/lodex](https://github.com/Inist-CNRS/lodex)
* [https://lodex.gitbooks.io/lodex-user-documentation/](https://lodex.gitbooks.io/lodex-user-documentation/)
* [https://twitter.com/lodex_team&quot;&amp;gt;https://twitter.com/lodex_team](https://twitter.com/lodex_team&quot;&amp;gt;https://twitter.com/lodex_team)
* [http://lodex.inist.fr/tag/triplex/](http://lodex.inist.fr/tag/triplex/)

#### Auteurs/Autrices

Membre des équipes TRIPLEX et ISTEX-DATA, dans les services “R&amp;amp;D et expérimentation” et “Pilotage de Projets”
de l’Inist-CNRS, **Stéphanie GREGORIO** est une spécialiste des métadonnées bibliographiques et de leurs standards.
Du travail sur les documents papiers en 2001, jusqu’à sa rencontre avec le traitement des documents numériques
en 2007, elle est passée de MARC à XML. Elle exploite ces connaissances dans le projet ISTEX depuis 2012, et
transforme les données (JATS, NLM, formats éditeurs, Dublin Core, …) vers des formats standards (MODS, TEI).
Depuis janvier 2017, où elle a rejoint l’expérimentation Triplex, elle travaille également avec les formats du
web sémantique.</description>
  <dc:date>2024-04-25T15:45+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195405</guid>
  <title>SousLeSensVocables</title>
  <link>https://cms.semweb.pro/talk/16195405</link>
  <description>SousLeSensVocables est une suite intégrée d&#39;outils web, graphiques et open
source,  pour manipuler des ressources exprimées au format du web
sémantique : SKOS , OWL et graphes RDF.

Les graphes ont cette particularité de permettre de mieux décrire la
complexité des choses que les modèles relationnels mais en contrepartie ils
sont plus complexes à manipuler.

SousLeSensVocables tente de répondre à cette difficulté par des outils
alliant différentes techniques : génération automatique de requêtes SPARQL
, arbres de taxonomies, visualisation/navigation au sein des graphes ...

Les outils s&#39;organisent en 3 grandes fonctions :

   - explorer les ontologies et les thesaurus (OWL, SKOS)
   - transformer des données tabulaires en graphes de connaissance
   - interroger les graphes de connaissance

Le développement de SousLeSensVocables a commencé depuis plusieurs années
et s&#39;est enrichi progressivement  pour répondre  à des besoins
opérationnels de TotalEnergies concernant d&#39;abord les thesaurus puis les
ontologies.


#### Auteurs/Autrices
Claude Fauconnet :
[https://fr.linkedin.com/in/claude-fauconnet-64a4a113b / souslesens.org](https://fr.linkedin.com/in/claude-fauconnet-64a4a113b / souslesens.org)</description>
  <dc:date>2024-04-22T13:02+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195430</guid>
  <title>Ontologies du devenir</title>
  <link>https://cms.semweb.pro/talk/16195430</link>
  <description>&lt;p&gt;Le temps passe, les objets du monde évoluent. Comment en tenir compte dans les
graphes de connaissance ?&lt;/p&gt;
&lt;p&gt;La description d’un domaine nécessite souvent de tenir compte du temps qui passe
et de l’évolution des objets décrits : un concert est présenté dans un programme
avant d’être joué [1], un projet législatif évolue au gré des amendements au
parlement européen [2], les programmes éducatifs changent d’une année sur
l’autre [3], la liste des pays change au fil des événements politiques, un
pokémon subit des évolutions [4], une mission est planifiée, confiée et réalisée
par une organisation, les paramètres médicaux d’un patient varient, la cellule
se transforme et se divise, le goût du vin évolue avec le temps, l&#39;organigramme
de l’entreprise change....&lt;/p&gt;
&lt;p&gt;Les ontologies, qu&#39;elles soient philosophiques ou informatiques, se sont
souciées de décrire un monde figé où les objets du monde, leur classification,
la valeur de leurs propriétés sont immuables. Pourtant nous avons besoin chaque
jour de décrire des ressources dans leur dynamique, dans leurs changements
continuels. Certains philosophes ont réfléchi à cette problématique [5],
certaines ontologies ont pris en compte ce besoin, mais en général de manière
partielle.&lt;/p&gt;
&lt;p&gt;Dans un premier temps nous discuterons des différents besoins liés à l’évolution de la
descriptions des ressources dans un graphe de connaissance :&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Souhaitons- nous conserver la trace des évolutions d’une ressource mais
n’utiliser qu’une représentation du domaine à un instant t ?&lt;/li&gt;
&lt;li&gt;Voulons-nous interroger l’état du domaine à différents points temporels ?&lt;/li&gt;
&lt;li&gt;Avons-nous besoin d’une représentation continue de l’évolution de la description
des ressources ?&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Pour chaque besoin nous présenterons les différentes manières qui ont été
proposées ou sont envisageables pour modéliser l’évolution des ressources dans
un graphe de connaissance.&lt;/p&gt;
&lt;p&gt;Dans un second temps nous examinerons comment les ontologies de base; dublin
core, skos, org, event, frbr, foaf, répondent, ou ne répondent pas à ces
différents besoins de descriptions évolutives. Nous examinerons brièvement les
limites que chacune présente et proposerons des pistes d’évolutions pour
qu’elles deviennent des “ontologies du devenir”.&lt;/p&gt;
&lt;p&gt;[1] voir l’ontologie DOREMUS pour la description des œuvres et représentations
musicales avec la capacité de écrire sur la base de CIDOC-CRM les événements
futurs: &lt;a href=&quot;https://www.doremus.org/?page_id=36&quot;&gt;https://www.doremus.org/?page_id=36&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[2] voir l’ontologie ELI-DL pour la description des activités législatives
&lt;a href=&quot;https://tinyurl.com/ty6xhe7w&quot;&gt;https://tinyurl.com/ty6xhe7w&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[3] voir la gestion des versions de ScoLOMFR &lt;a href=&quot;https://tinyurl.com/5mz4fz6c&quot;&gt;https://tinyurl.com/5mz4fz6c&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[4] Pokemon Ontology (or GOntology!) modeling with OWL!
&lt;a href=&quot;https://tinyurl.com/xhcebekk&quot;&gt;https://tinyurl.com/xhcebekk&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[5] voir la réflexion d’Anne Fagot-Largeault sur la nécessité de penser les
ontologies dans la continuité du temps : Ontologie du devenir. L’évolution,
l’univers et le temps, Anne Fagot-Largeault, Odile Jacob, 2021&lt;/p&gt;
&lt;h4&gt;Auteurs/Autrices&lt;/h4&gt;
&lt;p&gt;&lt;a href=&quot;https://www.jean-delahousse.net/&quot;&gt;Jean Delahousse&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Jean est un consultant et analyste expérimenté avec 20 ans d’expérience dans les
technologies du web sémantique, les données ouvertes et liées, la gestion de
vocabulaires contrôlés et de graphes de connaissance.&lt;/p&gt;
&lt;p&gt;Jean a été co-fondateur et PDG de la société française Mondeca, pionnière dans
les technologies du web sémantique.&lt;/p&gt;
&lt;p&gt;Jean participe à des projets dans différents domaines : législation, santé,
culture, sécurité, science, énergie, pour définir des stratégies centrées sur
les données et les connaissances, concevoir des ontologies, conseiller sur la
gestion et distribution de données ouvertes, rédiger le cahier des charges.&lt;/p&gt;
&lt;dl&gt;
&lt;dt&gt;Son expertise couvre le web sémantique, l’ingénierie des connaissances, la&lt;/dt&gt;
&lt;dt&gt;gestion de taxonomies et de graphes de connaissances, l’acquisition automatisée&lt;/dt&gt;
&lt;dt&gt;de connaissances.  Jean a une expérience opérationnelle sur différents standards&lt;/dt&gt;
&lt;dd&gt;RDF, OWL, FRBR, DC, BIBO, CIDOC-CRM, SKOS, ORG, DCAT, DC, PROV, QB, XML.&lt;/dd&gt;
&lt;/dl&gt;</description>
  <dc:date>2024-04-22T13:09+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195446</guid>
  <title>Modular ontologies for maintenance texts</title>
  <link>https://cms.semweb.pro/talk/16195446</link>
  <description>&lt;p&gt;Maintenance work orders, equipment rebuild reports, investigations, maintenance
procedures, and equipment manuals are a vast resource for equipment
manufacturers and asset operators.&lt;/p&gt;
&lt;p&gt;Recent developments in annotation and the use of deep learning by the NLP-TLP
group at UWA are unlocking information captured in these texts enabling entity
typing of instance data and the creation of knowledge graphs (KG).&lt;/p&gt;
&lt;p&gt;We now have 10,000s of maintenance work order and procedure documents and while
we can query them, once in KG format using Cypher, we seek to augment our
queries with reasoning based on engineering knowledge.&lt;/p&gt;
&lt;p&gt;This talk describes our annotation (using the Redcoat collaborative annotation
tool) and KG pipeline (using Echidna); demos are available at
&lt;a href=&quot;https://nlp-tlp.org/software-demos&quot;&gt;https://nlp-tlp.org/software-demos&lt;/a&gt;. The talk also provides an overview of two
reference and five modular application ontologies for maintenance texts aligned
to both BFO/IOF and ISO 15926-14 top level ontologies. One of our goals is to
use these ontologies to improve confidence in the answers to KG queries, as this
is very important in making decisions involving maintenance activities on
engineering assets.&lt;/p&gt;
&lt;h4&gt;Références&lt;/h4&gt;
&lt;p&gt;Useful web sites run by members of the NLP-TLP group:
- &lt;a href=&quot;https://nlp-tlp.org/software-demos&quot;&gt;https://nlp-tlp.org/software-demos&lt;/a&gt;
- &lt;a href=&quot;https://nlp-tlp.org/publications&quot;&gt;https://nlp-tlp.org/publications&lt;/a&gt; and &lt;a href=&quot;https://nlp-tlp.org/github&quot;&gt;https://nlp-tlp.org/github&lt;/a&gt;
- &lt;a href=&quot;https://www.industrialontologies.org/maintenance-wg/&quot;&gt;https://www.industrialontologies.org/maintenance-wg/&lt;/a&gt; (this also contains links to papers published by the authors relating to maintenance ontologies)
- &lt;a href=&quot;https://code.maintenance.org.au/tyler.bikaun/mtbf_from_mwo&quot;&gt;https://code.maintenance.org.au/tyler.bikaun/mtbf_from_mwo&lt;/a&gt;
- &lt;a href=&quot;https://github.com/nlp-tlp/lexiclean&quot;&gt;https://github.com/nlp-tlp/lexiclean&lt;/a&gt;&lt;/p&gt;
&lt;h4&gt;Auteurs/Autrices&lt;/h4&gt;
&lt;p&gt;Authors are Professor Melinda Hodkiewicz, Michael Stewart, Caitlin Woods, Wei
Liu, Tim French, Tyler Bikaun, Melinda Hodkiewicz&lt;/p&gt;
&lt;p&gt;The NLP-TLP group at UWA was formed in 2019 and has grown rapidly since then on
the back of funding from the Australian Government and a number of large
resources companies &lt;a href=&quot;https://www.maintenance.org.au/&quot;&gt;https://www.maintenance.org.au/&lt;/a&gt;. We are active across the
domains of entity recognition, lexical normalisation, knowledge graphs,
ontologies, annotation, adaptive user interfaces and knowledge representation
and reasoning, and are producing prototype tools which are being tested by
industry partners. We also have strong links with the IOF and also with the
group in Norway developing ISO 15926-14.&lt;/p&gt;</description>
  <dc:date>2024-04-22T13:21+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195036</guid>
  <title>Un prototype pour la sémantisation, l’interconnexion et la visualisation de jeux de métadonnées archivistiques</title>
  <link>https://cms.semweb.pro/talk/16195036</link>
  <description>En 2015, les Archives nationales, la Bibliothèque nationale de France, le Service interministériel
des Archives de France et un laboratoire de recherche en histoire de l’art de l’Université de
Montréal au Québec se sont associés pour réaliser une preuve de concept visant à démontrer qu’il
est possible :

* de représenter en RDF, en veillant à la précision, à l’exactitude et à l’utilisabilité des triplets
obtenus, des métadonnées archivistiques produites de différentes manières et selon diverses
perspectives (celles d’institutions patrimoniales, celles d’un chercheur) ;
* d’enrichir les triplets obtenus en créant de nouveaux triplets, qu’il s’agisse de procéder à des
alignements ou d’établir de nouvelles relations par inférence ;
* de produire une interface de recherche et d’exploration analytique et graphique qui soit
dynamique, ergonomique et signifiante, sans sacrifier la granularité informationnelle ni la lisibilité.



Il s’agit donc de réaliser un démonstrateur, sous la forme d’une application web dont les sources
seront placées sous licence libre.


Cette opération est relativement complexe. Il n’y a pas de réel précédent dans le domaine des
archives. De plus, jusqu’à tout récemment, il n’existait pas d’ontologie générique du domaine. Le
groupe de travail Experts Group on Archival Description (EGAD) du Conseil International des
Archives, après avoir publié en septembre 2016 la première version du modèle conceptuel Records
In Contexts-Conceptual Model (RiC-CM, cf. http://www.ica.org/fr/egad-ric), prépare, pour la
publier à l’automne, une première version de la transposition de ce modèle en ontologie OWL (RiC-
O). Enfin, il n’existe pas de librairie ou logiciel satisfaisant directement la totalité des besoins,
notamment pour ce qui concerne la visualisation des jeux de données.

Après une phase de sélection (au sein de corpus plus vastes, issus de projets réels) et de préparation
des jeux de métadonnées archivistiques à traiter (notices d’autorité et instruments de recherche
archivistiques en XML, vocabulaires au format SKOS), le projet est entré dans sa phase finale ce
printemps. La conversion en RDF des fichiers XML, conformément à RiC-O, est quasiment
achevée. Le démonstrateur est en cours de réalisation par la société Logilab dans le cadre du marché
public défini pour le projet. Tous les travaux seront terminés cet automne.
&lt;p&gt;L’équipe projet et la société Logilab proposent de présenter les enjeux et les étapes du projet, ses
résultats en particulier les fichiers RDF et le démonstrateur, ainsi que les premiers éléments d’un
bilan détaillé, accompagnés de réflexions sur les suites possibles de cette opération.

#### Auteurs/Autrices

**Florence Clavaud**, responsable des référentiels documentaires aux Archives nationales ; membre de
l’EA 3624 (Centre Jean-Mabillon) de l’École nationale des chartes ; membre exécutif du groupe
EGAD (Experts Group on Archival Description) du Conseil international des Archives, responsable
du développement de l’ontologie RiC-O.

Voir : [http://www.enc-sorbonne.fr/fr/florence-clavaud](http://www.enc-sorbonne.fr/fr/florence-clavaud)
Twitter : @FloClavaud
Courriel : florence.clavaud@culture.gouv.fr&lt;/p&gt;</description>
  <dc:date>2024-04-25T15:37+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/14590803</guid>
  <title>Category Theory for Geometric Product Specification</title>
  <link>https://cms.semweb.pro/talk/14590803</link>
  <description>&lt;p&gt;by Prof. Paul Scott - University of Huddersfield&lt;/p&gt;</description>
  <dc:date>2024-04-22T13:48+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195331</guid>
  <title>SparqlExplorer, utilisation de vues génériques pour l&#39;exploration d&#39;un entrepôt SPARQL</title>
  <link>https://cms.semweb.pro/talk/16195331</link>
  <description>De plus en plus de jeux de données en RDF sont disponibles sur le Web dans des
entrepôts SPARQL.
Bien que certains logiciels permettent une visualisation de ces données, ils
sont souvent soit très spécifiques à un jeu de données particulier, soit trop
génériques pour être adaptés à un besoin.
Il n&#39;est donc pas toujours aisé d&#39;explorer un jeu de données sans avoir à écrire
de requête SPARQL. Ce qui ne rend pas les données accessibles à tous.

Nous proposons SparqlExplorer, un outil qui permet de naviguer dans les
données de n&#39;importe quel entrepôt SPARQL et de les afficher de manière
contextualisée.  En plus de l&#39;URL de l&#39;entrepôt SPARQL à explorer, il est
possible de spécifier un serveur de vue, tel que défini dans nos précédents
travaux concernant [le navigateur pour le web de données liées](https://hal.archives-ouvertes.fr/hal-02283368v1).

Un serveur de vue met des vues, i.e. composants d&#39;affichage de triplets RDF, à
disposition sur le Web.
Les vues sont spécifiques à des données RDF. Par exemple, une vue &quot;Carte&quot;
permettra la représentation de triplets contenant des informations de
géolocalisation.
Un mode automatique permet de sélectionner automatiquement la vue du serveur la
plus adaptée aux données.
Si aucun serveur de vue n&#39;est spécifié, ou aucune vue n&#39;est selectionnée ou
applicable pour les triplets RDF à afficher, SparqlExplorer affiche les
triplets sous forme tabulaire.

Nous souhaitons poursuivre ces travaux pour permettre de spécifier plusieurs
serveurs de vues avec un ordre de priorité. De plus, il serait intéressant
d&#39;étendre la notion de vue pour qu&#39;une vue puisse être utilisée dans une autre.
De cette façon il serait possible de faire des compositions de vues.
    
#### Références
* [Dépôt de code libre](https://forge.extranet.logilab.fr/open-source/LDBrowser/sparqlexplorer)
* [Démonstration en ligne](https://open-source.pages.logilab.fr/LDBrowser/sparqlexplorer/)
* [Serveur de vues de démonstration](https://culture.pages.logilab.fr/culture-views/)
* [Sparql endpoint de démonstration](https://sparql-culture.demo.logilab.fr/graphe-culture/sparql)

  
#### Auteurs/Autrices
* Fabien Amarger

* Elodie Thiéblin a travaillé sur les alignements complexes entre ontologies avant
de rejoindre Logilab.

* Nicolas Chauvat</description>
  <dc:date>2024-04-22T13:57+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195339</guid>
  <title>An integrated repository for industrial ontologies and OTTR templates: The READI use case</title>
  <link>https://cms.semweb.pro/talk/16195339</link>
  <description>Our presentation will describe how requirements management in capital industries
can benefit from ontology-based methods. Our use case is the READI Joint
Industry Project in digitalised requirements for the Norwegian Continental
Shelf (offshore Oil and Gas). We propose a new kind of service, integrating
industrial ontologies with the templates needed to use them correctly.

READI aims to improve the specification, implementation, and verification of
requirements. A particular aim is to evolve the INCOSE guidelines for writing
requirements, so that recent innovations in intelligent data can be exploited.
READI uses ontologies, following W3C&#39;s OWL 2 standard in the intended way,
where constraints are subject to precise Description Logic reasoning. This will
support and partially automate work processes, improving development and use of
requirements across design and operations.

To provide a common, shared language of industrial assets and processes in the
form of OWL ontologies is crucial. This requires a broad-ranging collaborative
effort between subject matter experts and ontology modellers; while
challenging, the approach has already been proven successful in capital
projects. We obtain a clear separation between a generic vocabulary (classes
and relations), requirements expressed using the vocabulary (norms as rules),
and industrial assets described with the vocabulary (individual instances).

Agreement on common terminology is however not enough. We also need to ensure
that the vocabularies are applied in a uniform way. To this end, READI adopts
the Reasonable Ontology Templates (OTTR) language and framework. Ontology
patterns are developed to match the kinds of facts that need to be formalised,
then captured in OTTR templates. With a library of OTTR templates, we can
secure uniformity: as ontologies are built, as they are applied to integration
of existing data sources, and in analysis and reporting.

To make the ontology-based approach practical for the industry, a new kind of
repository service is needed, one that provides both ontologies and the
templates for using them in projects. In our presentation, we will demonstrate
how READI builds a platform for such a service, compliant with web best
practices including Linked Data, and exploiting the template library facilities
of the OTTR reference implementation Lutra.

#### Auteurs/Autrices

* Martin G. Skjæveland is a researcher at the University of Oslo, where he
leads the Ontology Engineering group in SIRIUS, a Norwegian Centre for
Research-driven Innovation that addresses the problems of scalable data access
in the oil &amp;amp;; gas industry. He also holds an adjunct position as associate
professor in Data Science at the University of Stavanger.

* Johan W. Klüwer is a specialist in industrial ontologies at DNV GL, Oslo. He
has contributed to ontology development and implementation for capital
projects, standards as ontologies, research and development projects, and
international collaboration. He is a primary contributor to the methodology of
the ongoing READI Joint Industry Project (2018-) that targets digitalisation of
requirements for the Oil and Gas on the Norwegian Continental Shelf.</description>
  <dc:date>2024-04-22T14:00+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195345</guid>
  <title>Popock, le Web sémantique dans ta poche</title>
  <link>https://cms.semweb.pro/talk/16195345</link>
  <description>Popock un réseau social basé sur le matching des centres d’intérêts, expertises, compétences &amp;amp; projets...

Le projet Solid de Tim Berners Lee vise à fournir à chacun des espaces de stockage personnels avec des containers LDP2 (Linked Data Platform).
L’utilisateur peut y stocker tout type de fichier et notamment de l’information structurée sous forme de triplets au format turtle. Ces espaces de stockages sont appelés POD  (personnal online datastore) et sont accessibles via une url.

On a ainsi la possibilité de lier des ressources (fichiers) les unes aux autres qu’elles se trouvent sur le même POD ou sur un POD différent.

Ceci nous offre la possibilité d’imaginer des applications décentralisées. Selon les spécifications de Solid, il est important de désolidariser les données et les applications. Ainsi les données des utilisateurs peuvent être manipulées par ceux-ci grâce à des applications différentes.

Un utilisateur peut par exemple utiliser l’application Plume pour poster un article sur son POD. Celui-ci étant enregistré conformément à un certain schéma pourra être lu par un autre utilisateur avec une autre application. (https://spoggy.solid.community/public/blog/2020-09-28.ttl)

Popock vise à faciliter, pour un utilisateur, l’interaction avec ses données, à explorer les données publiques de ses amis, ou encore à parcourir des bases de connaissances telles que Semapps3, ou tout autre triplestore tel que celui de Persée.

Popock propose, en plus de la visualisation de graphes, plusieurs fonctionnalités intéressantes basées sur le Web Sémantique :

* un profil Solid étendu par l’ajout de centres d’intérêts (ajout futur de compétences, soft-skills, projets…)
* un explorateur de POD similaire à un gestionnaire de fichiers
* gestion des « amis » (foaf:kwows) exploration de leur POD, rebond vers les POD de leurs amis et ainsi de suite. 

Les POD exposant des centres d’intérêts communs gravitent naturellement autour des nœuds représentant ces concepts sur le graphe.
* Popock fournit plusieurs outils de communication s’appuyant eux aussi sur Solid &amp;amp; le Web Sémantique : Chat (LongChat specification5 Solid), Boîte mail, Parle / Expérimentation de Chat imbriqué
* Un éditeur de texte, de fichiers turtle
* Un éditeur de graphes sémantiques collaboratifs en temps réel pour faciliter la collaboration lors de la conception de données sémantiques
* Un gestionnaire de signets/bookmarks
* multi-language i18n
* WebApplication : installable comme une application mobile (notifications,…), responsive avec Bootstrap
* Technologies utilisées opensource : nodejs, vuejs, composants web, visjs, librairies de la communauté Solid et d’Inrupt...


Développements actuels :
* des outils de gouvernance partagée inspirés de l’holacratie (création de tensions, groupes, cercles, roles…)
* gestion de « petites annonces » pour partager offres &amp;amp; les matcher avec les besoins
* formulaires basés sur les shapes ShEx
* tutoriels d’utilisation de Popock, de création et de gestion d’un POD, de création de modules applicatifs ou un Popock personnalisé à partie de zéro

Envie d’avoir un peu plus de maîtrise sur vos données ? d’interopérabilité ? D’exploration ? De partage d’expertise ? d’apporter votre expérience ?

Nous avons besoin de développeurs et de financements pour les rémunérer, former d’autres développeurs à intégrer les concepts de séparations entre les données et les applications...
Le projet Popock commencé début août avance et a maintenant besoin de retours utilisateurs, donc n’hésitez pas à tester Popock, éprouver, triturer, &amp;amp; à partager vos remarques en créant des « Tensions6 »

#### Références
Popock : https://scenaristeur.github.io/solid-vue-panes
Contributions, idées &amp;amp; suggestions: https://github.com/scenaristeur/solid-vue-panes

#### Auteurs/Autrices
David Faveris</description>
  <dc:date>2024-04-22T14:06+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195364</guid>
  <title>Actualités de la sémantisation des métadonnées archivistiques : le cas des Archives nationales</title>
  <link>https://cms.semweb.pro/talk/16195364</link>
  <description>Depuis 2013, un groupe de travail du Conseil international des Archives (ICA-Expert Group on Archival Description ; voir https://www.ica.org/en/about-egad) prépare un nouveau standard pour la description des archives, Records in Contexts (RiC). L’objectif est de fournir au métier des archives un cadre conceptuel abstrait et un modèle formel (ontologie OWL) génériques, centrés sur les entités à décrire et compatibles avec les modèles de métadonnées antérieurs. Comme CIDOC-CRM pour les œuvres d’art et IFLA-LRM pour les livres et autres objets édités conservés en bibliothèque, RiC modélise sous forme de graphe les archives et les différents contextes dans lesquelles celles-ci s’inscrivent. Après la publication d’une version 0.1 du modèle conceptuel RiC-CM en août 2016, le groupe EGAD a publié en décembre 2019 une version 0.2 preview du modèle conceptuel (https://www.ica.org/sites/default/files/ric-cm-0.2_preview.pdf), et une version 0.1 de l’ontologie (https://www.ica.org/standards/RiC/ontology). 

Les sources de RiC-O, des exemples et pages de documentation ont par ailleurs été rendus publiques sur un entrepôt GitHub en mars 2020 (https://github.com/ICA-EGAD/RiC-O). Les Archives nationales sont très impliquées dans l’élaboration de RiC.

Nous présenterons les travaux en cours aux Archives nationales pour mettre en œuvre RiC. En effet, après la mise en ligne en mars 2018 d’une preuve de concept (PIAAF), des opérations de plus grande ampleur y sont menées.

En particulier, la société Sparna a réalisé pour les Archives nationales RiC-O Converter, un outil de conversion en données RDF conformes à RiC-O de l’ensemble des métadonnées de description des archives conservées dans cette institution. Le code source et la documentation de ce convertisseur ont été publiés sous licence libre en avril 2020 (https://github.com/ArchivesNationalesFR/rico-converter). Nous pourrons présenter rapidement cet outil ainsi que les données RDF des Archives nationales.

#### Références
Visionner la présentation

#### Auteurs/Autrices

Florence Clavaud, responsable de la Mission référentiels aux Archives nationales ; membre exécutif du groupe ICA/EGAD, responsable du développement de l’ontologie RiC-O. Courriel : florence.clavaud@culture.gouv.fr

Thomas Francart, consultant indépendant, gérant de la société Sparna (http://www.sparna.fr/).
Courriel : thomas.francart@sparna.fr</description>
  <dc:date>2024-04-22T14:21+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195369</guid>
  <title>Solid, mode d&#39;emploi (donnée non incluses)</title>
  <link>https://cms.semweb.pro/talk/16195369</link>
  <description>Solid est un ensemble de standards visant à amener un nouveau paradigme
Web: les données, au lieu d&#39;être accumulées par les applications, sont
en la possession de l&#39;utilisateur. Ce principe fondateur a plusieurs
conséquences, mais d&#39;un point de vue de développeur, la barre à passer
pour construire une application descend d&#39;un cran. Plus besoin de
collecter les données: c&#39;est l&#39;utilisateur-ice qui les amène avec
lui-elle. Qui mieux que la personne concernée peut déterminer quelles
données elle souhaite partager avec vous ? De plus, même sans parler
d&#39;infrastructure, les données coûtent cher: en plus de les collecter en
premier lieu, il sera de votre responsabilité de les conserver en
sécurité, il faudra faire attention à les sauvegarder, tout en se
conformant aux règlements comme le RGPD... Pourquoi ne pas couper la
poire en deux, pour que des profesionnels puissent se consacrer soit au
stockage des données, soit à leur mise en jeu dans des applications,
sans être obligé de faire les deux ?

L&#39;architecture Solid repose sur trois composants principaux, qui sont
trois services entièrement décentralisés (possiblement auto-hébergés):
identité, stockage, et application. Cette présentation donnera une vue
d&#39;ensemble de ces trois composants, de leurs interactions, et du rôle de
chacun envers l&#39;utilisateur. Pour permettre de mettre ces principes en
application, des outils disponibles pour soutenir le développement
d&#39;applications sans être expert dans les standards mis en jeux seront
aussi présentés.

Évidemment, si un seul standard pouvait régler tous les problèmes du Web
et du Web sémantique, ça se saurait. Un stockage de données complètement
générique sur lequel les applications viennent se greffer pose
évidemment d&#39;épineux problèmes d&#39;interopérabilité, et c&#39;est par
l&#39;émergence de bonnes pratiques à travers toute l&#39;industrie que ceux-ci
pourront être abordés.

#### Références
Une librarie pour interagir avec un Pod Solid:
https://github.com/inrupt/solid-client-js
Deux serveurs Solid open source:
https://github.com/solid/community-server,
https://github.com/solid/node-solid-server
Le site web du projet Solid: https://solidproject.org/
    
#### Auteurs/Autrices

Je suis Nicolas Seydoux, développeur pour Inrupt, une start-up très
impliquée dans l&#39;écosystème Solid. J&#39;ai un fort passif autour des
technologies du Web Sémantique, notamment appliquées à l&#39;Internet des
Objets. 

J&#39;ai rejoint Inrupt il y a maintenant un peu plus d&#39;un an, ce
qui m&#39;a permis de devenir très familier avec les standards impliqués
dans Solid. Je fais partie de l&#39;équipe SDK, où nous développons des
outils pour faciliter la création d&#39;applications, à destination des
développeurs n&#39;étant pas familiers avec les technologies du Web Sémantique.</description>
  <dc:date>2024-04-22T14:26+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195390</guid>
  <title>Ontological Modeling of Manufacturing Resources</title>
  <link>https://cms.semweb.pro/talk/16195390</link>
  <description>The representation of resources plays a fundamental role for manufacturing knowledge
representation and data management. However, standards and ontologies used in engineering
understand resources differently, e.g., sometimes in connection to processes occurring in time
at the factory&#39;s shop floor, sometimes in relation to plans which are only possibly executed.
Because of this conceptual heterogeneity, misunderstandings arise concerning the basic
features that characterize resources. For instance, if a resource is an entity to be used in a
manufacturing process, then it must be a material entity available in the factory. Differently,
when a resource is related to a plan, it is not necessarily a material thing since it may simply be
a resource specification and its physical counterpart may not be even available in the factory at
stake (e.g., because it still needs to be acquired). We will discuss in the presentation three
approaches found in both the academic literature and engineering standards for manufacturing
resource modeling. By discussing their advantages and shortcomings, we will address the need
for an ontology that integrates the three perspectives within a unique modeling approach. We
will report on ongoing research work based on Semantic Web languages and technologies.​

Keywords:​ Manufacturing resource, Planning, Systems design
    
#### Références

The presentation is based on: Sanfilippo, E.M., Borgo, S., Terkaj, W. Resources in manufacturing. IN:
Proceedings of the 10th International Workshop on Formal Ontologies meet Industry (FOMI), CEUR
workshop proceedings vol. 2518, 2019. An extended version of the paper will be soon published with (the
journal of) Applied Ontology.</description>
  <dc:date>2024-04-23T14:00+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195232</guid>
  <title>Easy Web API Development with SPARQL Transformer</title>
  <link>https://cms.semweb.pro/talk/16195232</link>
  <description>&lt;p&gt;How often, as a web developer, do you struggle with the JSON output of a SPARQL endpoint?&lt;/p&gt;
&lt;p&gt;In a document-based world as the one of Web APIs, the triple-based output of SPARQL endpoints can be a barrier for developers who want to integrate Linked Data in their applications. As the query results represent all the valid solutions of aquery, it is possible that two bindings describe the same real-world object and differ only by a single field, appearing almost as duplicates.&lt;/p&gt;
&lt;p&gt;In order to have a suitable structure for manipulation in any web framework, repetitive manual tasks are required, including skipping irrelevant metadata, reducing and parsing the RDF types, merging the rows referring to the same object, and mapping to a destination structure.&lt;/p&gt;
&lt;p&gt;All these tasks are automatised in SPARQL Transformer, which relies on a single JSON object for defining which data should be extracted from the endpoint (query) and which shape should they assume (template). The library automatically merges the results on the base of identifiers, giving to the returned JSON the classic tree-based structure.&lt;/p&gt;
&lt;p&gt;SPARQL Transformer is integrated into the grlc framework, which can build a web API from a set of queries stored in a GitHub repository, in order to create new bridges between the Web of Data and the Web of applications.&lt;/p&gt;
&lt;p&gt;SPARQL Transformer is currently used in different projects and application. Some real-world use cases will be presented to demonstrate how easy it is to develop your Semantic Web application with SPARQL Transformer.&lt;/p&gt;
&lt;h4&gt;Références&lt;/h4&gt;
&lt;p&gt;Lisena P., Meroño-Peñuela A., Kuhn T. &amp;amp; Troncy R. Easy Web API Development with SPARQL Transformer. In 18th International Semantic Web Conference (ISWC), Auckland, New Zealand, October 26-30, 2019.&lt;/p&gt;
&lt;p&gt;Lisena P. &amp;amp; Troncy R. Transforming the JSON Output of SPARQL Queries for Linked Data Clients. In The Web Conference 2018, Developer Track, Lyon, France, April 23-27, 2018.&lt;/p&gt;
&lt;h4&gt;Auteurs/Autrices&lt;/h4&gt;
&lt;p&gt;Pasquale Lisena is finishing his PhD (foreseen defense on 11th October) in the Data Science department at EURECOM, working on music representation and recommendation under the supervision of Raphaël Troncy. He got his Master in Media Engineering at Politecnico di Torino, and he has a previous work experience in the field of Web Interaction. From 2016 to 2018, he was part of the DOREMUS project, being in charge of the knowledge base population and recommendation tasks, contributing papers to conferences in the field like ISWC, EKAW and TheWebConf.&lt;/p&gt;</description>
  <dc:date>2024-04-23T14:11+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195263</guid>
  <title>OpenArchaeo, une fédération de bases archéologiques décrites en CIDOC-CRM et navigable intuitivement</title>
  <link>https://cms.semweb.pro/talk/16195263</link>
  <description>[OpenArchaeo](http://openarchaeo.huma-num.fr/explorateur/) est une plateforme du consortium
[MASA](https://masa.hypotheses.org/)(Mémoire des Archéologues et des Sites Archéologiques)
pour l’interopérabilité des données archéologiques. L’objectif de cette
plateforme est double. Il s’agit d’une part de mettre à disposition sur le
web sémantique les jeux de données archéologiques produits dans le cadre du
consortium MASA, sous la forme d’un triplestore MASA disposant de données
alignées avec l’ontologie du CIDOC-CRM et ses extensions dédiées à
l’archéologie.
Il s’agit d’autre part de proposer une interface d’interrogation intuitive
pour les données archéologiques inspirée du moteur de recherche ResearchSpace
mis en place par le British Museum, OpenArchaeo étant pour sa part spécifiquement
dédié à l’archéologie.


Les particularités de cette plate-forme au regard de l’état de l’art sont :

* Le mapping de données archéologiques existantes, sous forme de bases
relationnelles et de fichiers XML, vers le modèle CIDOC-CRM et son
extension archéologique;

* L’aggrégation automatique des données des référentiels (GeoNames et
PACTOLS) qui sont utilisées pour indexer les descriptions archéologiques;

* Une mise en oeuvre d’une &lt;i&gt;fédération de requêtes SPARQL, c&#39;est-à-dire
l’interrogation de plusieurs bases de façon transparente par la même requête SPARQL;

* Le développement d’un composant de navigation intuitif dans les
données, permettant de construire visuellement des requêtes SPARQL; ce
composant est open-sourcé et autonome, baptisé [Sparnatural](https://github.com/sparna-git/Sparnatural/)


#### Références

Liens vers les démos, applications :
* http://openarchaeo.huma-num.fr/explorateur/
* http://openarchaeo.huma-num.fr/federation/,
* https://github.com/sparna-git/Sparnatural/

#### Auteurs/Autrices
Auteurs en quelques phrases : 
Olivier Marlet et Xavier Rodier sont respectivement chercheur et directeur au sein du
[Laboratoire Archéologie et Territoire](http://citeres.univ-tours.fr/spip.php?rubrique57) à Tours.

Béatrice Bouchou-Markhov est enseignant-chercheur en Ingénierie des
connaissances et web sémantique à l’Université de Tours, Thomas Francart
est consultant spécialiste du web sémantique fondateur de la société [Sparna](http://sparna.fr).&lt;/i&gt;</description>
  <dc:date>2024-04-23T14:46+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195271</guid>
  <title>Comment le Web Sémantique permet la coopération dans les circuits-courts alimentaires</title>
  <link>https://cms.semweb.pro/talk/16195271</link>
  <description>Plateforme de mutualisation de flux logistiques dans le domaine des circuits
courts alimentaires, via le développement de standards techniques et sémantiques
permettant aux partenaires du projet d’inter-opérer leurs données. Le projet
repose sur l&#39;adoption d&#39;un standard qui inclue le web sémantique tout en restant
le plus pragmatique possible et minimisant les coûts humains et technologiques
d&#39;évolutions pour ces plateformes. Le priorités fonctionnelles sont la
mutualisation des catalogues puis des stocks puis la mutualisation
logistique. La présentation permettra d’introduire le concept et l’écosystème
d&#39;acteur puis de rentrer plus en profondeur sur la technologie sémantique
utilisée et les protocoles choisis. Nous finirons par un démonstration du
prototype.  

#### Références

http://datafoodconsortium.org/ 

* Les présentations qui vont être actualisées
         - périmètre fonctionnel
         - architecture technique
         
* le standard
  

#### Auteurs/Autrices

* Simon Louvet : Architecte web et développeur senior. Co-fondateur
de Data Players, une entreprise spécialisée dans les technologies du web
distribué et l&#39;interopérabilité. Contributeur actif de L’assemblée
Virtuelle et de Alternatiba.

* Rachel Arnould : Pilote de Projet de Data Food consortium.
Rachel est spécialisée dans le suivi et la conception Agile de plateformes
web pour le secteur du développement durable et de l’économie sociale et
solidaire.</description>
  <dc:date>2024-04-23T14:49+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195307</guid>
  <title>Construction du référentiel &quot;personnes&quot; du Muséum national d&#39;histoire naturelle</title>
  <link>https://cms.semweb.pro/talk/16195307</link>
  <description>Le projet datapoc vise à *construire un « référentiel personnes »
commun à l’ensemble des services du MNHN afin de consolider les bases de
données existantes et de permettre aux chercheurs de croiser, lier et
exploiter des données qu’il leur est difficile d’apparier compte-tenu de
la dispersion des applications.

En se focalisant sur un petit nombre de personne, le projet a permis en l&#39;espace
de quelques mois de démontrer la richesse des gisements de données, de préparer
le passage à l’échelle et de commencer à ouvrir les données.

Dans cette présentation, nous souhaiterions partager notre expérience et les
difficultés rencontrées, en particulier concernant les choix de modélisation
liés à la complexité du domaine et à la multiplicité et la diversité des sources
que nous souhaitions intégrer.

Nous avons recueilli des données accessibles selon des modalités diverses :
imports de fichiers, moissonnage d&#39;entrepôts OAI, requêtes sparql, conversion de
fichiers unimarc...

Nous avons associé des personnes (les naturalistes) à des &quot;objets&quot; divers
(spécimens, taxons) à partir de la description de ces objets ce qui a été rendu
compliqué par l&#39;utilisations courante d&#39;abbréviations et le grand nombre
d&#39;homonymes.

Nous avons fait le choix d&#39;un modèle dynamique, de type Cidoc CRM, au sein
duquel les personnes sont alignées sur des Activités.

Nous avons aligné les personnes sur un nombre important d&#39;identifiants (idref,
wikidata, orcid, zoobank, isni, bnf, bhl, ipni, viaf, harvard, etc).

Dans le but d&#39;améliorer les données en continu par itérations successives,
datapoc permet aux utilisateurs qui consultent les fiches des personnes de faire
apparaître les paramètres et les résultats des calculs dont est issu un
alignement. Si nécessaire, les utilisateurs peuvent signaler les incohérences et
contribuer à l&#39;amélioration de la qualité des données.

Les traitement et les algorithmes qui effectuent les alignements ont ainsi pu
évoluer au fur et à mesure des semaines et nous permettre de mieux appréhender
les questions liées à un futur passage à l&#39;échelle.

#### Auteurs/Autrices

**Chloé Besombes** est cheffe du projet Datapoc au sein du Muséum national d&#39;histoire
naturelle de Paris.</description>
  <dc:date>2024-04-23T15:06+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195323</guid>
  <title>The Semantic Web3D: towards comprehensive representation of 3D content on the semantic web</title>
  <link>https://cms.semweb.pro/talk/16195323</link>
  <description>The semantic web is one of the most significant trends in the
development of the web. It transforms the current web into a network
linking structured content with formal and expressive descriptions of
its meaning. A number of approaches leverage semantic web standards and
tools to improve creation, representation and processing of various
types of media, including text, images, audio and video. However, 3D
content, which is an essential element of virtual and augmented reality
environments, still lacks standardized comprehensive semantic
representations as well as methods and tools of semantic creation and
processing. This remains the main obstacle for integration and wide
dissemination of virtual and augmented reality on the semantic web.


This presentation is devoted to the works of the X3D Semantic Web
Working Group [1], which is a part of the Web3D Consortium. The goal of
the group is to develop standardized comprehensive solutions integrating
the current semantic web with interactive 3D contents towards building
the Semantic Web3D. In particular, the group focuses on the development
of semantic representations as well as methods and tools of semantic
creation and processing of 3D content for web-based VR/AR environments.
The intention of the group is to build upon achievements of the Web3D
Consortium to date, including the results of other working groups, such
as X3D, humanoid animation, medical as well as design printing and
scanning.

So far, we have elaborated the concept of the Semantic Web3D content
representation at different levels of abstraction, covering 3D- and
domain-specific objects and properties. The representation is an
extension of previous works published at the Web3D conference [2][3] and
the 3D Ontology [4]. It permits querying, reasoning and processing of
semantic 3D content with regards to its inherent geometrical,
structural, presentational and animation properties along with
properties related to an arbitrary domain in which the content is used,
e.g., cultural heritage, medicine, design, engineering or e-commerce.
The foundation of the representation is the X3D Ontology [5]. It is
automatically generated from the X3D Unified Object Model, which makes
it strictly connected to the Extensible 3D – a prominent standardized 3D
format (ISO/IEC 19775) for web-based applications, which is the
successor to VRML. We also explain how the current approach could be
extended with additional 3D ontologies derived from other 3D formats. We
plan to use the DFDL language to develop converters of 3D formats to 3D
ontologies, and 3D models and scenes encoded in the formats – to
knowledge bases compliant with the ontologies.

*[1] Web3D Consortium, X3D Semantic Web Working Group Charter,
https://www.web3d.org/working-groups/x3d-semantic-web/charter

*[2] Walczak, K., and J. Flotyński, Semantic query-based generation of
customized 3D scenes, in: Proceeding Web3D &#39;15 Proceedings of the 20th
International Conference on 3D Web Technology, Heraklion (Greece), June 18 - 21,
2015 , ACM New York, 2015, pp. 123-131, ISBN 978-1-4503-3647-5, DOI
10.1145/2775292.2775311.

*[3] Sikos, Leslie F., &quot;3D model indexing in videos for content-based
retrieval via X3D-based semantic enrichment and automated reasoning.&quot;,
Proceedings of the 22nd International Conference on 3D Web Technology.  ACM,
2017.

*[4] Sikos, Leslie F., 3D Ontology,https://purl.org/ontology/t3dmo/


*[5] Web3D Consortium, X3D
Ontology,https://sourceforge.net/p/x3d/code/HEAD/tree/www.web3d.org/semantics

*[6] Visualizing the Semantic Web: XML-based Internet and Information Visualization, https://books.google.fr/books?id=YbWxDNZkiaUC&amp;amp;pg=PA132&amp;amp;lpg=PA132&amp;amp;dq=R+to+X3D&amp;amp;source=bl&amp;amp;ots=O43rzY6uL3&amp;amp;sig=ACfU3U3MhOIpVsXmOUC3qZTZl_Tkb_DZnA&amp;amp;hl=en&amp;amp;sa=X&amp;amp;redir_esc=y#v=onepage&amp;amp;q=R%20to%20X3D&amp;amp;f=false

#### Auteurs/Autrices
Don Brutzman, John Carlson, Jakub Flotyński, Felix Hamza-Lup, Athanasios
Malamos, Christophe Mouton, Marc Petit, Nicholas Polys, Leslie Sikos,
Krzysztof Walczak</description>
  <dc:date>2024-04-24T07:47+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195107</guid>
  <title>A next generation Systems Engineering tool built entirely on the basis of semantic Web technology.</title>
  <link>https://cms.semweb.pro/talk/16195107</link>
  <description>The subject of the presentation is a method that on one hand enables exchange of
Systems Engineering information between involved parties in projects and on the
other hand can be used for building configuration management tools, supporting
Systems Engineering processes.

This method is based on the usage of an ontology, described by an information
models covering the information needs of the ISO 15288 system life cycle
processes. These models are the base of a Dutch standard for the exchange of
Systems Engineering data and is based on ISO 15926, a well-known life cycle data
integration standard from the process industry. This presentation also shows
implementation aspects of an ontology based on RDF(S) (Resource Description
Framework) as defined by the World Wide Web Consortium.


The presentation contains a life demonstration of a Systems Engineering tool
based on RDF(S) and the presented Systems Engineering ontology. This tool is
fully operational in a complex infrastructure project in de Netherlands and
supports the requirement management and verification process and the design
process of hardware and control software based on a system breakdown structure.


Attached two of my earlier papers and a presentation with some details of the System Engineering tool developed upon RDF(S) and the Systems Engineering ontology

#### Auteurs/Autrices

**Leo C. van Ruijven**  Employee of Croonwolterendros b.v., a Dutch EPC contractor
in the area of electrical and mechanical installations, Leo has been active in
engineering design, construction and contracting for over 25 years. His work has
included delivery of systems as varied as water barriers, water transport
systems, ships and tunnels. In the context of these kinds of projects, he has
developed engineering methods and supporting systems improving effectiveness,
efficiency, integrality and quality. 
The last 15 years he has been involved in the national and international
standardization processes for Systems
Engineering, Building Information Modeling and data integration. Leo is editor
of ISO 15926-11“simplified usage of industrial reference data”.  The work
presented in this paper is part of his PhD-work carried out at Delft University
of Technology which will be finished this year.</description>
  <dc:date>2024-04-24T08:01+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195123</guid>
  <title>Désambiguïsation des données toponymiques du patrimoine : vers un modèle sémantique dérivé du CIDOC CRM</title>
  <link>https://cms.semweb.pro/talk/16195123</link>
  <description>La composante géographique des données patrimoniales est généralement
caractérisée par une forte ambiguïté causée par différents facteurs : variations
orthographiques des toponymes selon les langues, les époques ou le contexte ;
micro-toponymes qui ne se référent pas à une nomenclature normalisée ; évolution
de l’emprise spatiale des lieux désignés par le toponyme ; homonymie ; évolution
des modèles géographiques et des systèmes de projection spatiale au cours du
temps, etc. En conséquence, leur intégration dans des systèmes d’information
géographique nécessite un processus de désambiguïsation préalable qui se traduit
par un travail laborieux d’identification et d’indexation des toponymes (par
exemple la méthode régressive de Marc Bloch1). Or, cette tâche est régulièrement
abandonnée par les producteurs de données patrimoniales du fait de sa complexité
technique. De plus, les experts techniques en charge de l’intégration de données
ne possèdent bien souvent pas la connaissance et les ressources métier
suffisantes pour proposer des solutions répondant à leurs besoins
spécifiques. Aussi, les modèles existants ne couvrent pas la diversité des
facteurs d’ambiguïté et ne sont pas toujours généralisables à d’autres
territoires géographiques et époques historiques (ex : modèle du projet
Cassini2)

Cette présentation a pour objectif d’introduire un modèle sémantique dédié
à la désambiguïsation des toponymes et micro-toponymes, appréhendable par tous
les acteurs du processus d’intégration et applicable à tous types de données
patrimoniales, quels que soient les territoires et époques historiques qu’elles
recouvrent.

Tout d’abord, un état de l’art présentera une typologie des facteurs
d’ambiguïté ainsi qu’une classification des modèles existants. Ensuite, une
définition formelle du modèle en OWL sera proposée.  Celui-ci s’appuie sur
l’ontologie CIDOC CRM, modèle conceptuel de référence du patrimoine culturel et
sur son extension CRMgeo qui fournit une « articulation » entre le CIDOC CRM et
le standard de la communauté du patrimoine géospatial GeoSPARQL. Enfin,
l’utilisation de ce modèle sera illustrée à l’aide d’un corpus de données
patrimoniales issues de plusieurs projets de recherche interdisciplinaires
relatives au Chinonais.

Ces recherches sont financées par le programme de recherche ARD 2020
Intelligence des Patrimoines3 porté par le Centre d’études supérieures de la
Renaissance dans le cadre du projet HeritageS dont l’un des objectifs est de
développer une nouvelle forme de valorisation socio-économique et touristique à
base scientifique.

  
#### Auteurs/Autrices

**Damien Vurpillot**: Docteur en archéologie et ingénieur de recherche en
informatique au sein de l’ARD Intelligence des Patrimoines. Spécialiste des
données spatiales et des systèmes de visualisation.

**Perrine Thuringer** : Docteure en Informatique, spécialiste du Web Sémantique,
ingénieure de recherche au sein de l&#39;ARD Intelligence des Patrimoines et cheffe
de projet de la plateforme HeritageS.

**Johann Forte** : Ingénieur spécialisé en traitement des données et signaux
2D/3D et ingénieur d’étude au sein de l’ARD Intelligence des Patrimoines.

**Benoist Pierre**: Directeur du Centre d&#39;études supérieures de la Renaissance
(UMR 7323 et UFR) - Directeur du Programme ARD Intelligence des Patrimoines -
Chargé de mission au Ministère de l&#39;Enseignement supérieur et de la Recherche,
Secteur des Sciences Humaines et Sociales (DGRI-A6).</description>
  <dc:date>2024-04-24T08:10+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195029</guid>
  <title>Favoriser l&#39;interopérabilité des qualifications européennes: le registre de données de qualifications (QDR)</title>
  <link>https://cms.semweb.pro/talk/16195029</link>
  <description>La nécessité d&#39;une information transparente en ce qui concerne les qualifications et les opportunités d&#39;apprentissage en Europe provient du fait que cette information est un soutien essentiel pour le recrutement, la gestion de carrière, les stratégies d&#39;apprentissage “tout au long de la vie” et les processus de reconnaissance des qualifications entre Etats Membres.

Afin de supporter ces différents actions, les parties prenantes (organismes d&#39;attribution, autorités des États membres, services de l&#39;emploi, instituts d&#39;éducation/formation, partenaires sociaux, demandeurs d&#39;emploi, apprenants, employeurs, etc.) doivent coopérer entre elles afin de partager des informations relatives aux qualifications, aux expériences professionnelles ainsi qu’aux compétences acquises par un individu dans d&#39;autres pays et de développer une compréhension commune de ces sujets.

Ce besoin d&#39;interopérabilité et de compréhension commune de l&#39;information a conduit la Commission Européenne à développer le QMS (Qualifications Metadata Schema) et le QDR (Qualification Data Register), un registre de données relatif aux qualifications.

Le QDR est une application web qui permet aux autorités nationales des États membres ou aux organisations privées délivrant des qualifications, de télécharger des ensemble de données et de les publier dans l’application afin qu’elles puissent elles-mêmes être re-publiées sur les portails européens relatifs aux compétences et aux qualifications en Europe [1] [2].

Un schéma de métadonnées pour les qualifications commun garantit d’une part que les qualifications soient décrites de manière cohérente par tous les fournisseurs de données et d’autres part que celles-ci puissent être regroupées au niveau européen. De plus le vocabulaire &lt;a href=&quot;https://www.w3.org/TR/vocab-dcat/&quot;&gt;DCAT&lt;/a&gt; et le profil d&#39;application qui en découle garantissent le versionning de l&#39;ensemble de ces données.

Le QDR est actuellement testé par les États membres avant son déploiement final dans les serveurs de la Commission Européenne.
[1] [https://ec.europa.eu/esco/portal/home](https://ec.europa.eu/esco/portal/home)
[2] [https://ec.europa.eu/ploteus/](https://ec.europa.eu/ploteus/)

#### Auteurs/Autrices

**Dominique Vandensteen** est un architecte et développeur avec plus de 20 ans d&#39;expérience.
Il possède une vaste connaissance du développement d&#39;applications web sémantique, de la programmation
et des architectures JAVA. Il a développé et mis en œuvre avec succès des solutions et applications
pouvant fonctionner sur différentes infrastructures, allant de serveurs classiques à des appareils
portatifs tels que des tablettes ou des smartphones.

**Gregory De Backer** est chef de projet et business analyst. Il est spécialisé dans le domaine des
qualifications et de leurs reconnaissances en Europe. Gregory a participé à l’élaboration du schéma
de métadonnées pour les qualifications (Qualification Metadata Schema) en Europe ainsi qu’à la
présentation du projet auprès d’une quinzaine d’Etats Membres. Il participe actuellement à une analyse
business ayant pour but de développer de nouvelles applications basées sur les jeux de données des
qualifications.</description>
  <dc:date>2024-04-25T15:35+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195278</guid>
  <title>Projets LOFAR</title>
  <link>https://cms.semweb.pro/talk/16195278</link>
  <description>Lorsqu’un enseignant ou un étudiant recherchent des ressources pédagogiques
pouvant être utilisées dans un cours, il utilise au mieux des moteurs de
recherches spécialisés, comme par exemple ceux proposés les Universités
Numériques Thématiques (UNT) ou le portail Sup-numérique de l’enseignement
supérieur, ou, au pire, il utilise des moteurs généralistes tels que
Google. Dans ces cas, il réalise cette recherche par essais/erreurs en testant
des mots clés et en analysant les résultats proposés.

L’objectif du projet [LOFAR](http://lofar2.insa-rouen.fr/), pour Liaison entre
Offre de FormAtion et Ressources pédagogiques, est de faciliter ce processus à
l’aide d’un moteur de recherche spécialisé. Plutôt que d’extraire des mots clés
décrivant le cours choisi, l’utilisateur sélectionne le cours. Le moteur LOFAR
extrait alors les informations pertinentes et recherche automatiquement les
ressources les plus adéquates.  Pour réaliser cela, il utilise des publications
de descriptions d’offres de formation et de ressources pédagogiques dans le Web
des données.
Plus exactement, le moteur LOFAR utilise trois types d&#39;entrepôt RDF possédant
chacun une entrée SPARQL:

* Le premier contient des descriptions d’offres de formations. Il existe
plusieurs standards XML pour les décrire (CDM, LHEO, etc.) et la communauté
scientifique a proposé différentes représentations pour le web des données
durant la dernière décennie. C’est ce que nous avons par exemple fait avec le
projet [IFLOT](http://iflot.insa-rouen.fr).

* Le deuxième contient des descriptions de ressources
pédagogiques. Historiquement, deux normes ont été publiées par l’AFNOR pour les
décrire, le LOMFR en 2007 et le NoDEfr (partie 1) en 2019. Comme le LOMFR ne
prévoyait pas de binding RDF, encore une fois, la communauté scientifique en a
proposé plusieurs dans les années 2010. Le [NoDEfr](https://sourcesup.renater.fr/www/nodefr/), 
quant à lui, prévoit nativement une représentation de ces informations en RDF.

Enfin le troisième type d&#39;entrepôt est un annuaire qui référence des
entrepôts des deux types précédents et qui indique comment les utiliser.

Notre démonstrateur utilise des prototypes d&#39;entrepôts (des trois précédents
types) que [CentraleSupelec](http://semunt.supelec.fr) et l’[INSA Rouen Normandie]
(http://linkeddata.insa-rouen.fr) publient.


#### Auteurs/Autrices

 * Nicolas Delestre est maître de conférences à l’INSA Rouen Normandie. Il
enseigne dans le département Informatique et Technologie de l’Information et
effectue sa recherche dans le Laboratoire d’Informatique de Traitement de
l’Information et des Systèmes. Il est expert AFNOR dans la Commission de
Normalisation 36 “Technologies de l&#39;information pour l’apprentissage,
l’éducation et la formation”. Il est co-auteur du livre “Du Web des documents
au Web Sémantique”.

* Nicolas Malandain est maître de conférences à l’INSA Rouen Normandie. Il
enseigne dans le département Informatique et Technologie de l’Information et
effectue sa recherche dans le Laboratoire d’Informatique de Traitement de
l’Information et des Systèmes. Il est co-auteur du livre “Du Web des documents
au Web Sémantique”.

* Yolaine Bourda est professeure à CentraleSupélec. Elle est directrice du
département Informatique et effectue sa recherche dans le Laboratoire de
Recherche en Informatique (UMR8623). Elle est co-présidente de la Commission de
Normalisation AFNOR CN 36 “Technologies de l&#39;information pour l’apprentissage,
l’éducation et la formation”.</description>
  <dc:date>2024-04-23T14:54+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195203</guid>
  <title>Industrialiser la collaboration des traitements statistiques etsémantiques de la donnée : le Middleware sémantique Perfect Memory</title>
  <link>https://cms.semweb.pro/talk/16195203</link>
  <description>Le Big Data est partout. Du besoin de gestion de volumes de données
toujours plus grand est né celui de l’exploitation de l’information de
valeur, conduisant à l’émergence de la Data Science et de leur Data
Scientists.

Ainsi, après le stockage des données en grand volume vient logiquement le
défi technologique du raffinage de la *Donnée-Pétrole* (Collecte,
Interprétation, Transformation, Présentation).
Cette prise de conscience du besoin de l’interprétation automatisée de la
donnée, adressé aujourd’hui essentiellement par traitement heuristique, ne
remet pas en cause une approche en silo, sectorisant la donnée
par domaine métier. Ce qui est en réalité paradoxal lorsque le besoin est
de confronter des données hétérogènes entre elles.


C’est pourquoi Perfect Memory a bâti un middleware mettant en œuvre la
modélisation sémantique des données, produites notamment par des outils
d&#39;analyse statistiques, contribuant à la construction d’une base de
connaissance exploitable et flexible.


La présentation illustrera dans le cadre d’un cas d&#39;usage métier, comment
les outils mis en oeuvre par Perfect Memory permettent :

* Aux outils de traitements statistiques de considérer les modèles
sémantiques comme contexte d’analyse

* Aux bases de connaissance de consolider le fruit de traitements
statistiques

#### Références

La plateforme Perfect Memory est utilisée aujourd&#39;hui par plusieurs grands
acteurs des médias, comme France Télévisions, RTL Belgique et Radio France,
mais aussi dans d&#39;autres verticaux comme la gestion muséale, la presse
numérique ou encore le retail.

[Vidéo d&#39;exemple d&#39;utilisation de la plateforme Perfect Memory](
https://www.youtube.com/watch?v=azWJRMc_iSI)

#### Auteurs/Autrices

**Guillaume Rachez** est diplômé de l’Université de Valenciennes en tant
qu’Ingénieur des Systèmes Images et Sons, il est spécialisé dans les
technologies sémantiques et l’indexation de médias. Collaborateur de Perfect
Memory depuis les premières heures, il a contribué à la mise en œuvre des
concepts fondateurs de la plate-forme.

**Lénaïk Leyoudec** Consultant Sémiotique et UX Design au sein
de Perfect Memory. Docteur en sciences de l&#39;information et de la communication
à l&#39;UTC de Compiègne.</description>
  <dc:date>2024-04-24T09:21+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16194956</guid>
  <title>Méthodologie pour des ontologies exploitables dans les domaines culturels</title>
  <link>https://cms.semweb.pro/talk/16194956</link>
  <description>Dans le domaine de la culture, les champs d&#39;étude sont nombreux et doivent relier des données très hétérogènes. La saisie des données de manière conforme à une ontologie complexe est souvent de qualité médiocre car elle nécessite une compréhension en profondeur du modèle et des liens qu&#39;il implique.

Comment décrire un spectacle et le relier correctement à toutes les instances intéressantes (description des décors, personnages, versions...) de manière pratique et qualitative par un opérateur non spécialiste ? Par quoi commencer ? Dans quel ordre ? Quand créer une nouvelle version ?
    
Nous proposons une méthodologie efficace basée sur le modèle FRBR et SKOS afin de créer des ontologies facilement exploitables pour les domaines culturels. A l&#39;instar de FRBRoo, pour un domaine particulier et pour chaque classe d&#39;objet à décrire, l&#39;ontologie réutilise les notions fondamentales d&#39;œuvre, d&#39;expression, de manifestation et d&#39;événement, liés à des personnes et des concepts.

Ainsi, tout en gardant une description détaillée et complexe du domaine, la démarche de saisie et d&#39;exploration est uniformisée. Un guide de saisie peut-être facilement réalisé, et les notions habituelles de réalisation et d&#39;édition sont conservées, ce qui facilite l&#39;appropriation du modèle par des non-spécialistes.
Cette démarche permet aussi la transdisciplinarité en rendant inter-compatibles les ontologies par des classes de même nature.

Nous vous présenterons comme cas l&#39;Institut International de la Marionnette, centre de recherche et de formation sur les arts de la marionnette qui a mené ce travail de modélisation global et d&#39;uniformisation des données. Ce travail a été réalisé en collaboration avec les chercheurs, les marionnettistes et les documentalistes comme chefs d&#39;orchestres de la gestion des connaissances.

La base rassemble aussi bien la documentation et les ouvrages sur le métier, la description des spectacles et leur captations, des compagnies, des festivals, des marionnettes, les matériaux qui les composent, un lexique détaillé du vocabulaire métier relié aux objets concernés et à terme les gestes associés à une marionnette et un marionnettiste ainsi que les archives.

#### Références

* [Site web](http://www.sigb.net)
* [Vidéo](https://www.youtube.com/channel/UCtrVvLXKddw57QZgA4UKiDA) Page Youtube sur la gestion des connaissances avec PMB ; graphe FRBR
    
#### Auteurs/Autrices

**Florent Tetart** PMB Services</description>
  <dc:date>2024-04-24T13:47+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16194963</guid>
  <title>API Platform : le web sémantique pour les masses</title>
  <link>https://cms.semweb.pro/talk/16194963</link>
  <description>API Platform est un framework web qui propose des outils très simple à prendre en main pour créer et consommer des API Linked Data supportant nativement JSON-LD, Hydra et Schema.org.
Cette solution totalement open source (license MIT) est basée sur les technologies familière pour les développeurs web : PHP (et le framework Symfony) et JavaScript (et ReactJS).

Nous découvrirons comment importer un modèle de données depuis Schema.org, l&#39;exposer via une API web compatible Linked Data (via JSON-LD) et l&#39;adapter grâce au framework Symfony.

Cette API sera 100% fonctionnelle, et elle supportera la validation, la pagination, les filtres, l’imbrication de ressources, sera documentée via Swagger et Hydra et disposera d’une interface graphique orientée développeur.

Nous découvrirons ensuite les outils frontend du projet :

* Un système d’administration complet (à la Sonata), construit automatiquement en découvrant l’API et bénéficiant d’une interface moderne (Material Design) basée sur React et Redux
* Un générateur de code permettant de créer des interfaces webapp ReactJS et applications mobiles React Native.


#### Références
[Vidéo d&#39;une présentation de l&#39;outil](https://www.youtube.com/watch?v=N_jQcjqEJN8&amp;amp;index=100&amp;amp;list=PLAgO0SKz6lC8cF1I4rEByIOX27DDbsu6w)

#### Auteurs/Autrice

**Kévin Dunglas** est le fondateur de la société autogérée Les-Tilleuls.coop.
Développeur polyglotte, il est membre de la core-team Symfony (l&#39;un des frameworks
web les plus populaire au monde) et a créé le framework API Platform.
Il est également contributeur à plus d’une centaine de projets Open Source, conférencier;
rédacteur d’articles et livres techniques et enseignant à l&#39;université de Lille 1.</description>
  <dc:date>2024-04-24T13:49+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195010</guid>
  <title>Capitalisation des connaissances des centrales de production d’électricité et    apport des technologies du web et du web sémantique</title>
  <link>https://cms.semweb.pro/talk/16195010</link>
  <description>EDF conçoit, construit, installe et exploite - et a également démantele – de nombreuses
installations de production d’électricité. Cette expérience unique au monde lui permet de
pouvoir disposer d’une expertise sur ses matériels dans toutes les phases de leur cycle de
vie.

EDF a ainsi la capacité de réunir ces expertises et de capitaliser les connaissances acquises
de la conception au démantèlement sur ses matériels. Les technologies du web sémantique
ont ainsi pu être mises en œuvre pour répondre à ce dessein.

Cette intervention présentera des résultats de travaux menés dans le domaine de la
robinetterie : la méthode employée sera exposée ainsi que le résultat de l’ontologie ainsi créée
en OWL. L’enjeu de disposer de données de référence sera exposé ainsi que les capacités de la norme
ISO 15926 qui propose une RDL au travers de sa part 4 disponible en OWL/RDF.

Enfin un système de présentation de ces connaissances à travers la publication et la
navigation dynamiques dans ces informations, de leur documentation associée, y compris des
diagrammes interactifs de tuyauteries et d’instrumentation, et des maquettes 3D de ces
matériels sous la forme d’un portail web exploitant une base de graphe, et les standards et
normes SVG et X3D, sera présenté.


#### Auteurs/Autrices
* **Anne DOURGNON**, Ingénieur Chercheur, EDF R&amp;amp;D, département PRISME
* **Geoffrey ALDEBERT**, Ingénieur Chercheur, EDF R&amp;amp;D, département PRISME
* **Samuel PARFOURU**, PhD, EDF – DPNT – DPIT - CIT
* **Christophe MOUTON**, Architecte Systèmes d’Information, EDF - DIPNN – projet PLM du
nucléaire.</description>
  <dc:date>2024-04-25T15:22+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195048</guid>
  <title>Le Web sémantique au service du bon usage du médicament</title>
  <link>https://cms.semweb.pro/talk/16195048</link>
  <description>L’arrivée du digital et des nouveaux enjeux qui l’accompagne ont conduit à des modifications profondes
dans la structuration de l’information sur le Médicament ; structuration reposant sur la mise en œuvre
de terminologies du domaine de la Santé.

Ainsi, les équipes scientifiques VIDAL gèrent aujourd&#39;hui plus de 50 terminologies médicales, permettant
d’identifier les médicaments, leurs données administratives et leurs propriétés thérapeutiques des
médicaments afin d’alimenter des fonctionnalités d’aide à la décision à destination des professionnels
de santé dans les produits VIDAL : recherche d’information, sécurisation de la prescription, facturation,
aider au bon usage des médicaments.

Pour donner plus de sens à ses données, en faciliter la gestion et améliorer ses produits, VIDAL travaille,
depuis quelques années, à des niveaux plus avancés de descriptions de données (ontologies, règles) et à
l’intégration des standards du Web sémantique SKOS, RDF, OWL, SPARQL et SPIN du W3C.

VIDAL, garant du bon usage du médicament auprès des médecins, a utilisé sa base de connaissance pour développer
des rappels contextuels au moment de la prescription.

Constitués d’un message court et renvoyant vers un texte complémentaire sur vidal.fr, VIDAL MEMO  a pour objectif
de lutter contre la iatrogénie médicamenteuse. 

Dans ce cadre, deux thématiques prioritaires ont été choisies : les risques chez les sujets âgés, et la prescription
d’antibiotiques.
L’ontologie MEMO (OWL, RDF et SKOS)  décrit les conditions de déclenchement des alertes (conditions patient et médicaments)
et le contenu des alertes déclenchées (messages courts et explicatifs). L’ontologie alimente un moteur de règle (DROOLS)
accessible au travers de l’API VIDAL.

Les médecins bénéficient alors de ces recommandations en lien direct avec leur prescription lorsque qu’une situation
à risque est détectée.

#### Auteurs/Autrices

**Suzanne Pereira**, Chef de produit « Terminologies et référentiels » et responsable de la R&amp;amp;D chez VIDAL.
VIDAL est une société centenaire, de 150 personnes, appartenant au groupe M3. Elle diffuse au travers de ses
produits Web, mobile et Web services, une base de données de référence sur le médicament utilisée au quotidien
par les professionnels de santé (médecins, pharmaciens…).</description>
  <dc:date>2024-04-26T09:27+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195055</guid>
  <title>Archiver, conserver, c&#39;est éditer, c&#39;est exposer.</title>
  <link>https://cms.semweb.pro/talk/16195055</link>
  <description>Comment archiver des données dispersées ? Comment les conserver dès lors
qu&#39;elles sont éparses?Certes, il conviendra de les exposer – mais en quel
lieu ?  Il faudra les éditer – mais sur quel support ? Cette tension entre
l&#39;archive originale &quot;a priori&quot; invisible et les besoins des visiteurs
forment la trame du site André Breton tel qu&#39;il est conçu depuis 2014.

Le site André Breton regroupe les 15 000 objets et documents numérisés en
2002 avant leur dispersion lors d&#39;une vente aux enchères qui dura 15 jours
en avril 2003.  Objets divers, manuscrits, livres, tableaux, sculptures,
dessins et arts graphiques, photographies, objets tribaux, correspondances
l&#39;atelier de la rue Fontaine enchâssait les archives qui consituent toute
l&#39;histoire du surréalisme. 

Une fois numérisés, les 15 000 objets et documents ont été vendus, donnés 
– sans que l&#39;on sache toujours où ils se trouvent, à qui ils échoient.
Pourtant cette collection d&#39;André Breton, remise en[contexte](http://www.andrebreton.fr/desktop
par des photos de l&#39;atelier, reste archivée en ligne de très institutionnelle
façon : notice d&#39;oeuvre, métadonnées interopérables, [bibliographie](http://www.andrebreton.fr/bibliography),
[expositions](http://www.andrebreton.fr/event/302682), provenance, lieu d&#39;origine et « véritable » lieu actuel de
[conservation](http://www.andrebreton.fr/museums), [d&#39;archives](http://www.andrebreton.fr/libraries) qu&#39;on a
retrouvé. On n&#39;est plus dans l&#39;atelier d&#39;un poète, on est sur le site qui s&#39;adresse aussi bien aux amateurs
qu&#39;aux chercheurs. 

Dans ce but, on indexe : on [classe](http://www.andrebreton.fr/category), on [détermine](http://www.andrebreton.fr/format), 
on [étiquette](http://www.andrebreton.fr/tag/). En vue de conserver et de présenter.

La conservation passe aussi par la médiation. Une médiation pour les amateurs, comme pour les chercheurs.
Pour le grand public, une [présentation](http://www.andrebreton.fr/andre_breton) du grand homme – par son
éditeur en Pléiade, car que demander de mieux ? – des [fiches pédagogiques](http://www.andrebreton.fr/eventcategory/ressources_pedagogiques). 

Pour les étudiants et les chercheurs, une présentation de sa bibliothèque dans la catégorie des
[livres](http://www.andrebreton.fr/category/247, bien entendu, dans des notices auxquelles on a ajouté
le [feuilletoir](http://www.andrebreton.fr/work/56600100541730) trouvé sur Gallica mais aussi sur la
bibliothèque collaborative [Zotero](https://www.zotero.org/groups/45722/surrealisme_andre_breton).
   
Chaque[donnée](http://www.andrebreton.fr/work/56600100185771) du site est d&#39;ailleurs indexable
sous Zotero au format et aux métadonnées d&#39;origine. Tension entre recherches en cours, et données
en ligne.
Des [albums](http://www.andrebreton.fr/albums)privés permettent de travailler sur un projet,
libre à chacun de les publier pour annoncer[exposition](http://www.andrebreton.fr/portfolio/298600), 
[événement](http://www.andrebreton.fr/portfolio/298743) ou [livre](http://www.andrebreton.fr/portfolio/302846).

Exposer et éditer en ligne reviennent à tisser des liens qui ne sauraient exister
sans une souplesse d&#39;adaptation à différentes bases de données, sans
suggérer des expositions entre les murs de musées ou de bibliothèque, des
publications d&#39;auteurs. Autant d&#39;éléments qui donnent la tension nécessaire
entre données en ligne et objets culturels.


#### Auteurs/Autrices

**Constance Krebs</description>
  <dc:date>2024-04-26T09:42+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195251</guid>
  <title>Thing’in, une plateforme basée-graphes pour la représentation sémantique et structurelle d’environnements de l’Internet des Objets</title>
  <link>https://cms.semweb.pro/talk/16195251</link>
  <description>Le Web Sémantique voit d’abord les graphes comme des graphes de connaissance,
dont les arcs représentent des prédicats logiques. Mais les graphes sont
utilisés depuis bien plus longtemps, et plus directement, comme modèles de
systèmes physiques, typiquement pour capturer leur structure en tant que
relations entre leurs sous-systèmes. 
 
La plateforme [Thing’in](https://hellofuture.orange.com/fr/thingin-la-plateforme-du-graphe-des-objets/)
associe ces «graphes de systèmes cyber-physiques » (CPS) et les graphes RDF au travers du
modèle « property graph » (PG) commun aux bases de données graphe.

Les graphes CPS ne doivent pas être réduits aux graphes RDF, pour 3
raisons principales :

1. Les graphes CPS ont une sémantique qui leur est propre, par exemple une
sémantique par similarité lorsqu&#39;un graphe capture la structure d&#39;un réseau
physique tel qu’un réseau électrique ou un réseau de transport. Ce type de
sémantique s’applique aux graphes dans leur ensemble et n’est pas réductible à
la sémantique par ressource individuelle que RDF décrit.

2. Le méta-modèle RDF
est trop contraignant pour capturer correctement les graphes CPS en tant que
modèles de systèmes physiques. : si un arc de ces graphe CPS représente une
connexion physique entre deux nœuds, comme par exemple une canalisation dans un
système de distribution d&#39;eau, il doit pouvoir posséder en propre des
propriétés, comme la capacité de cette canalisation. Un graphe RDF ne peut pas
supporter nativement (sans recourir à une réification) de telles propriétés d’un
arc.

3. Les graphes CPS sont classiquement utilisés par des algorithmes qui
analysent les aspects clés de leur structure globale, comme par exemple des
évaluations de distributions de degrés ou de coefficients de clustering. Les
graphes RDF sont inadaptés à l’utilisation de tels outils, car ils dissolvent la
structure de graphe en mélangeant des arcs structurels avec de simples liens de
propriété et de typage.

Un modèle de graphe adéquat pour les graphes CPS doit
donc conserver toute l&#39;expressivité et la structure native de ces graphes sous
ces trois aspects. Le modèle PG, issu des bases de données graphes, satisfait
ces conditions.  Les PG permettent, d’abord, de distinguer en tant que «
relations » les arcs qui représentent l&#39;échafaudage structurel d&#39;un système; les
liens physiques entre des entités physiques sous-jacentes, elles-mêmes
représentées comme des nœuds du graphe. Les propriétés (proches des properties
RDF ou attributs de modélisation objet) sont directement associées aux entités
ET aux relations.

La sémantisation d&#39;un PG au sens du web sémantique revient à
la superposition d&#39;un graphe RDF au-dessus du PG, associant aux ressources du
graphe (nœuds, relations et propriétés) des types formellement définis dans des
ontologies.  Le standard NGSI-LD défini par le groupe CIM de l’ETSI permet
d&#39;exporter les PG au format JSON-LD, apportant les atouts conjoints des CPS, des
BD graphes, du RDF et des « linked data ».

### Références

Sélection de publications sur le sujet. : (voir ResearchGate pour liens vers preprints)

* Gilles Privat Thierry Coupaye, Sébastien Bolle, Philippe Raipin Parvedy, WoT Graph as Multiscale Digital-Twin for Cyber-Physical Systems-of-
Systems, 2nd W3C Web of Things Workshop, Munich June 2019
* Gilles Privat, Abdullah Abbas, , Cyber-Physical Graphs vs. RDF graphs, W3C Workshop on Web Standardization for Graph Data, Berlin,
March 2019
* Abdullah Abbas, Gilles Privat: Bridging Property Graphs and RDF for IoT Information Management. Scalable Semantic Web Knowledge Base
Systems, co-located with 17th International Semantic Web Conference (ISWC 2018), Monterey, California, USA; 10/2018
* Wenbin Li, Gilles Privat, José Manuel Cantera, Martin Bauer, Franck Le Gall: Graph-based Semantic Evolution for Context Information
Management Platforms. 2018 Global Internet of Things Summit (GIoTS), Bilbao, Spain; 06/2018, DOI:10.1109/GIOTS.2018.853453
* Wenbin Li, Gilles Privat, Franck Le Gall: Towards a Semantics Extractor for Interoperability of IoT Platforms. Global IoT Summit, Geneva;
06/2017, DOI:10.1109/GIOTS.2017.8016247
* Wenbin Li, Gilles Privat: Cross-Fertilizing Data through Web of Things APIs with JSON-LD. European Semantic Web Conference, Workshop on
&quot;Services and Applications over Linked APIs and Data&quot;, Heraklion, Crete; 05/2016
* Dana Popovici, Gilles Privat: Capturing the Structure of Internet of Things Systems with Graph Databases for Open Bidirectional Multiscale Data
Mediation. The Second International Workshop on Large-scale Graph Storage and Management, Rome; 05/2015
* Mengxuan Zhao, Gilles Privat, Eric Rutten, Hassane Alla: Discrete Control for Smart Environments through a Generic Finite-State-Models-Based
Infrastructure. AmI 2014, Eindhoven; 11/2014, DOI:10.13140/2.1.4196.3202
* Gilles Privat, Mengxuan Zhao, Laurent Lemke: Towards a Shared Software Infrastructure for Smart Homes, Smart Buildings and Smart Cities.
EITEC, Berlin; 04/2014
* Mengxuan Zhao, Gilles Privat, Eric Rutten, Hassane Alla: Discrete Control for the Internet of Things and Smart Environments. Feedback
Computing; 06/2013
* Gilles Privat: Extending the Internet of Things. Communications &amp;amp; Strategies, Digiworld Economic Journal n° 87, 3d Q 2012, pp101-119
* Gilles Privat: Phenotropic and stigmergic webs: The new reach of networks. Universal Access in the Information Society 08/2012; 11(3):1-13.,
DOI:10.1007/s10209-011-0240-1
* Thibaud Flury, Gilles Privat, Fano Ramparany: OWL-based location ontology for context-aware services. AIMS 2004, Artificial Intelligence in
Mobile Systems; 09/2004

#### Auteurs/Autrices

Gilles Privat received engineering and doctoral degrees from Telecom
Paris/Institut Polytechnique de Paris. He is currently a Senior Scientist with
Orange Labs. He has, from the early 2000s, pioneered the research agenda of
&quot;smart devices&quot; that has henceforth branched out into Ambient Intelligence/Smart
Spaces/M2M/Internet of Things. He provides a cross-domain range of expertise to
several research and development projects in this purview, with a current focus
on Cyber-Physical Systems/Web of Things/Semantic &amp;amp; graph based platforms &amp;amp;
information models in their applications to smart builfing, smart cities and
smart energy. He has an extensive track record of leadership participation and
reviewing in European collaborative research projects, having initiated and led
the participation of Orange in numerous collaborative European research
projects, up to H2020 with the FIWARE programme. He has authored or co-authored
more than 100 peer-reviewed and invited publications and holds 13 patents.


* Linkedin profile : http://www.linkedin.com/in/gillesprivat
* Researchgate profile :http://www.researchgate.net/profile/Gilles_Privat/
* Google Scholar page : https://scholar.google.fr/citations?user=c8PcTN0AAAAJ&amp;amp;hl=fr</description>
  <dc:date>2024-04-23T14:35+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195209</guid>
  <title>Elaboration d’une ontologie pour la structuration et l’indexation fine d’un corpus de littérature nativement numérique.</title>
  <link>https://cms.semweb.pro/talk/16195209</link>
  <description>Nous constituons un corpus de littérature numérique en ligne à partir du
répertoire de la BNF constitué de sites web et de blogs d’écrivains publiant des
œuvres originales. Aujourd’hui, la BNF a indexé et répertorié plus de 4000 sites
et blogsi. Ils sont décrits sous format MARC. Nous proposons à partir de ce
répertoire un corpus en ligne qui soit à la fois un outil d’observation et
d’analyse d’une production littéraire en cours et un corpus disponible pour
diverses analyses automatiques. La richesse lexicale, syntaxique et sémantique
mais également d’articulation entre les textes et d’autres formats (vidéos,
images fixes, dessins) constituent aussi l’intérêt de ce corpus. Enfin,
l’actualisation fréquente de ces sites et blogs permettent d’observer l’activité
de production d’une œuvre.  Ce projet pose à la fois des questions relatives à
la constitution des corpus et à l’indexation fine des productions web. Le
problème initial associé aux corpus est la segmentation d’unités minimales
d’intervention d’auteur et la façon dont ces unités minimales sont insérées dans
la structure des pages donc du site (qui constituent des unités plus
larges). Ces entités sont indexées et représentées de façon à permettre une
navigation élaborée et des mises en commun d’entités hétérogènes par des
paramètres communs. Enfin, on ne dispose pas de langages contrôlés pertinents
pour caractériser les contenus des objets littéraires.  

Nous élaborons un modèle ontologique : on considère un site ou un blog de
publication d’auteur comme un flux d’informationii et non uniquement comme un
document. On définit le flux (actualisation, hypermédia et canal d’information)
par des propriétés de domaine qui s’appliquent à des objets identifiés par des
concepts FRBRiii. Ces objets sont enfin annotés par des profils construits à
partir du DCiv.  On réutilise des concepts élaborés dans le cadre de la BFO/IAOv
pour caractériser les propriétés associées au flux et donc à la dimension
informationnelle des objets. Cette ontologie s’applique sur les concepts de
groupe 1 de FRBR. Nous reformulons le modèle, notamment sa représentation OWL 2
dans FABIOvi. Les concepts que nous retenons (œuvre, expression, manifestation)
acceptent des profils DC qui représentent chacun des niveaux par des éléments
spécifiques et distincts. La structuration hiérarchique (descendante dans le
FRBR avec propriétés de flux et remontante dans le DC) permet d’inférer les
descriptions des autres niveaux à partir d’un niveau. Ces éléments DC sont
utilisés comme des outils d’annotation.  Nous souhaitons donc présenter ce
modèle avant son application à grande échelle. 


#### Auteurs/Autrices

**Christian Cote**, Maître de Conférences HDR en SIC, membre de
l’équipe MARGE, dans le cadre du projet LIFRANUM, financement
BOURGEON-Université Lyon3.</description>
  <dc:date>2024-04-24T09:23+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195296</guid>
  <title>SPARQL-Generate: Génération de RDF et de texte à partir de RDF et flux de
documents dans des formats hétérogènes</title>
  <link>https://cms.semweb.pro/talk/16195296</link>
  <description>&lt;p&gt;SPARQL-Generate est un langage de transformation de RDF qui permet
d’interroger des jeux de données RDF et des flux de documents dans des
formats hétérogènes, pour générer du RDF ou du texte. La version actuelle
de SPARQL-Generate permet d’exprimer des requêtes depuis tout type de CSV,
JSON, HTML, GeoJSON, CBOR (version binaire de JSON), ou encore des flux de
messages WebSocket ou MQTT.&lt;/p&gt;

&lt;p&gt;SPARQL-Generate est utilisé dans de nombreux cas d’utilisation, notamment:
&lt;/p&gt;&lt;ul&gt;
  &lt;li&gt;génération de linked data à partir de flux de documents;&lt;/li&gt;
  &lt;li&gt;génération de linked data à partir de gros documents;&lt;/li&gt;
  &lt;li&gt;transformation de jeux de données RDF;&lt;/li&gt;
  &lt;li&gt;génération d’une ontologie à partir de documents;&lt;/li&gt;
  &lt;li&gt;génération de documentation d’ontologies.&lt;/li&gt;


&lt;p&gt;Le langage intègre différentes astuces syntaxiques facilitant la
déclaration de transformations de documents en RDF, incluant (1)
l’identification des documents sources, (2) la sélection itérative de
sous-parties de ces documents, (3) des IRIs et littéraux à variables, (4)
l’appel à des requêtes externes, (5) la génération de listes RDF. Il inclue
une sous-partie du langage de transformation STTL (SPARQL-Template), qui
permet également de générer du texte. De plus, Étant une extension de
SPARQL 1.1, le langage présente également les avantages suivants:

&lt;/p&gt;&lt;ul&gt;
&lt;li&gt;Ceux qui sont familiers de SPARQL peuvent apprendre facilement SPARQL-Generate.&lt;/li&gt;
&lt;li&gt;SPARQL-Generate bénéficie de l’expressivité de SPARQL 1.1: agrégats,
   modificateurs de séquences de solutions, fonctions SPARQL et mécanisme
   d’extension.&lt;/li&gt;
&lt;li&gt;SPARQL-Generate s’intègre naturellement avec les standards existants
   pour consommer le Web des données, comme SPARQL ou les frameworks de
   programmation Web Sémantique.&lt;/li&gt;
&lt;/ul&gt;


&lt;p&gt;L’implémentation, basée sur Jena et disponible sous licence Apache 2.0, est
utilisable sur un site internet de démonstration, en ligne de commande, ou
sous forme de librairie Java.&lt;/p&gt;
    &lt;h5&gt;Références&lt;/h5&gt;&lt;div&gt;
&lt;p&gt;Lien vers présentation format 30min:
https://www.slideshare.net/maximelefrancois86/overview-of-the-sparqlgenerate-language-and-latest-developments&lt;/p&gt;
&lt;p&gt;Lien vers site web de démonstration: https://w3id.org/sparql-generate/&lt;/p&gt;
    &lt;/div&gt;&lt;h5&gt;Auteurs/Autrices&lt;/h5&gt;&lt;div&gt;
Maxime Lefrançois est Maître de Conférences à MINES Saint-Étienne depuis
2017. Il a étudié la mécanique à l’ENS Cachan, puis le traitement du signal
et l’informatique à l’Université de Grenoble. Il a préparé sa thèse à
l’INRIA Sophia-Antipolis en représentation des connaissances linguistiques.
Il a rejoint MINES Saint-Étienne fin 2014 pour développer le modèle de
connaissances du projet EUREKA ITEA 12004 SEAS: une ontologie modulaire et
versionnée construite sur le standard OGC&amp;amp;W3C SOSA/SSN, qui consiste en des
patrons d’ontologies simples qui peuvent être instanciés pour différents
domaines. Maxime est l’un des co-éditeurs de SOSA/SSN, et contribute au
développement de ETSI SAREF, le workflow de développement des ontologies
SAREF et du portail de publication, via la direction de projets Specialist
Task Force financés par l’ETSI. Maxime est l’initiateur et principal
contributeur du développement du langage SPARQL-Generate, et des types de
données cdt:ucum.    &lt;/div&gt;&lt;/ul&gt;</description>
  <dc:date>2022-09-16T09:39+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195222</guid>
  <title>Le Dictionnaire des francophones, plateforme open data et contributive</title>
  <link>https://cms.semweb.pro/talk/16195222</link>
  <description>&lt;p&gt;Le Dictionnaire Des Francophones (DDF) est un dictionnaire collaboratif en ligne articulant
plusieurs ressources lexicographiques décrivant le français, dont le Wiktionnaire. Il est
pensé d’emblée comme un nouvel espace numérique donnant non seulement accès à un
riche patrimoine culturel international, mais offrant également l’opportunité de recueillir et
partager la matière linguistique vivante que pratique au quotidien les francophones du
monde entier. Le dictionnaire des Francophones est un projet de la Délégation Générale à
la Langue Française et aux Langues de France (DGLFLF) du Ministère de la Culture, dont
l’opérateur est l’Institut International de la Francophonie (2IF, Université Jean Moulin Lyon
3) et dont la réalisation a été confiée à Mnémotix. Cette plateforme présente plusieurs
aspects innovants que cette présentation s’attachera à montrer et illustrer par une
démonstration.&lt;/p&gt;
&lt;p&gt;L’ontologie au coeur de cette plateforme propose une extension des modèles
lexicographiques existants (Ontolex, Lemon) afin de pouvoir articuler plusieurs
dictionnaires entre eux et d’en capturer toutes les subtilités, et aussi d’inclure au coeur du
modèle la dimension collaborative et le débat. Par exemple les notes d’étymologie des
dictionnaires sources sont conçues comme les premiers messages de fils de discussions
pouvant être alimentés par les usagers de la plateforme. La localisation géographique
(basée sur Geonames) des définitions ou des formes lexicales permet quant à elle de
traduire précisément l’ancrage géographique de mots et de leur usage. Enfin une grande
variété de relations sémantiques, décrites dans un thésaurus, peuvent être tissées au sein
des mots et des définitions.&lt;/p&gt;
&lt;p&gt;En terme d’interaction, la plateforme collaborative que constitue le DDF offre aux usagers
la possibilité d’explorer le contenu à travers le prisme de la géolocalisation ou des relations
sémantiques, mais les invite également à l’enrichir et à l’améliorer. Tout un chacun peut
contribuer à sa manière en ajoutant notamment des entrées, des exemples, en participant
aux espaces de discussions, en signalant ou en validant des articles, en enrichissant les
définitions existantes, ou simplement en précisant la localisation d’une forme ou d’un sens.
La contribution ne peut se faire que par l’ajout d’information. C’est à dire qu’une
information déjà présente ne peut être modifiée ou supprimée, ceci pour éviter des
corrections abusives qui résulteraient de simples divergences d’opinion.&lt;/p&gt;
&lt;p&gt;D’un point de vue technologique, le DDF repose sur Synaptix, le middleware open source
développé par Mnémotix dont l’architecture allie la réactivité de solutions big datas à la
flexibilité des systèmes de connaissances à base de graphes RDF. Synaptix est un serveurde 
message basé sur le protocole AMQP. Il gère les échanges entre les différents services
qui composent le DDF: un service qui s’occupe du moissonnage des données provenant
du dictionnaires intégrés (le ​ Wiktionnaire et l’​ Inventaire des particularités lexicales du
français en Afrique noire dans un premier temps) et de leur transformation en données
RDF; un service qui s’occupe de la mise à jour de ces données sémantiques et de
l’alignement des données provenant de sources diverses; enfin un service qui fait
l’indexation de ces données afin qu’elles soient servies rapidement à l’applications cliente.&lt;/p&gt;
&lt;p&gt;L’interface avec cette application Web cliente se fait via une API GraphQL qui permet de
combiner plusieurs requêtes en un seul appel HTTP&lt;/p&gt;
&lt;p&gt;La présentation se déroulera en 3 temps: 
1) présentation de l’ontologie DDF,
2) présentation de l’architecture de la plateforme basée sur Synaptix, et
3) démonstration.&lt;/p&gt;
&lt;h4&gt;Références&lt;/h4&gt;
&lt;p&gt;&lt;a href=&quot;http://www.dictionnairedesfrancophones.org&quot;&gt;http://www.dictionnairedesfrancophones.org&lt;/a&gt;&lt;/p&gt;
&lt;h4&gt;Auteurs/Autrices&lt;/h4&gt;
&lt;p&gt;&lt;strong&gt;Nicolas Delaforge&lt;/strong&gt; 
Ingénieur en génie informatique, diplômé de l’Université de Technologie de Compiègne,
spécialisé dans l’ingénierie des industries culturelles, il a également suivi une formation en
sciences cognitives au sein du laboratoire COSTECH de l’UTC. Après un parcours de
consultant chez Orange il renoue avec la recherche à l’INRIA de Sophia Antipolis où il
devient responsable du projet de recherche pluridisciplinaire ISICIL pendant 3 ans sous la
direction de Fabien Gandon. Cette expérience au croisement entre les mondes de la
recherche, de l’industrie et de la culture, mêlant technologie, philosophie et sciences
cognitives, lui ont donné une vision originale qui a motivé la création de la société
Mnémotix en 2013.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Pierre-René Lhérisson&lt;/strong&gt;
Pierre René est titulaire d’un Master en Master Web Intelligence auprès de l’Université Jean
Monnet de St Etienne. Ce Master lui a permis d’acquérir des compétences dans
l’apprentissage automatique, la fouille de données, la représentation des connaissances,
l’analyse et le traitement dans des environnements à grand volume de données
hétérogènes et complexes, numériques et/ou symboliques, pour l’élaboration de systèmes
intelligents, de solutions d’extraction d’information, d’aide à la décision et de prédiction. Il
va passer en avril sa thèse CIFRE cofinancée avec la SCIC 1D Lab auprès du Laboratoire
Hubert-Curien (Université Jean Monnet de St Etienne) sur le thème : Systèmes de
recommandations équitables pour des parcours de découvertes culturelles alternatives -
activité de recherche sur les systèmes de recommandation, la diversité, la nouveauté et la
sérendipité. Il intègre Mnémotix en tant que jeune docteur dès sa thèse passée et validée
pour venir renforcer les compétences de l’équipe dans toute la partie analyse sémantique,
TAL, extraction et modélisation de connaissances.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Mylène Leitzelman&lt;/strong&gt;
En charge au sein de Mnémotix de l’animation des relations avec la recherche et l’industrie,
du montage et du suivi des projets R&amp;amp;D, je suis également conseillère scientifique sur les
questions des usages et des sciences de l’information. Ma démarche professionnelle est
directement inspirée d&#39;une citation de François Bloch Lainé : &quot;Toute décision résulte de la
conjonction d&#39;une compétence et d&#39;une information&quot;, ce que je mets en pratique en
participant à l&#39;élaboration d&#39;outils et de plateformes technologiques intelligentes au service
des humains. Entrepreneur, ingénieur de recherche, je m’intéresse en particulier à la
manière dont les collectifs en ligne se constituent et comment ils créent, transfèrent et
actualisent les savoirs pour organiser une “intelligence collective”.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Freddy Limpens&lt;/strong&gt;
Ingénieur UTC, avec une spécialisation en sciences de l’information et arts numérique,
Freddy a réalisé sa thèse en ingénierie sémantique sous la direction de Fabien Gandon
(Wimmics-Inria). Après 10 ans d&#39;expérience dans la recherche, la conception, et le
développement de solutions collaboratives, systèmes à base de connaissances, et
applications e-learning, il intègre Mnemotix pour s’occuper de la branche consulting.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Noé Gasparini&lt;/strong&gt;
Il conçoit et coordonne le développement du Dictionnaire des francophones au sein de
l’Institut International pour la Francophonie. Sa formation en linguistique l’a amené à
réaliser un projet de documentation d’une langue d’Amazonie. Il s’est ensuite intéressé au
Wiktionnaire francophone, explorant les enjeux lexicographiques et organisant diverses
actions de médiation et de valorisation.&lt;/p&gt;</description>
  <dc:date>2024-10-14T13:37+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195134</guid>
  <title>Modèles Sémantiques dans l’intégration des systèmes d’information pourl’éducation sur le Web</title>
  <link>https://cms.semweb.pro/talk/16195134</link>
  <description>Les systèmes informatiques d’éducation en ligne (e-Education) représentent
une catégorie importante des systèmes d’information bénéficiant des standards
du Web pour leurs implémentation, déploiement et intégration.  Notre travail
propose une approche basée sur les technologies du Web Sémantique pour
implémenter les fonctionnalités et l’interopérabilité pour le système
d’e-Education en production, de l’entreprise [Educlever](https://www.educlever.com).
Nous proposons une implémentation des fonctionnalités de ce système e-Education
basée sur des ontologies decrivant les connaissances gérées par ce système. 
Nous montrons également comment cette représentation des connaissances en plus
d’aider à l’implémentation des fonctionnalités permet l’intégration des ressources
externes à Educlever, assure le respect des [standards de l’éducation en ligne et
de l’éducation nationale](http://www.education.gouv.fr/cid2770/le-socle-commun-de-connaissances-et-de-competences.htm)
[1], et enfin assure l’interopérabilité avec d’autres systèmes.

Nous avons évalué quantitativement et qualitativement nos propositions sur
des données réelles d’Educlever à partir de cas d’utilisation réels.  Nous
présentons une évaluation complète des différentes solutions basées sur les
technologies du Web Sémantique proposées, en termes de qualité de service et de
temps de réponse dans un environnement de production.  Dans ce contexte
industriel, nos évaluations montrent que les solutions proposées basées sur les
technologies du Web Sémantique permettent de satisfaire les besoins industriels
aussi bien en termes de fonctionnalités qu’en terme de performance et ceci en
comparaison à la solution existante en production.

Enfin, la représentation ontologique des connaissances offre comme
perspectives l’implémentation de fonctionnalités avancées telles que la
recommandation de ressources pédagogiques adaptées au profil et contexte des
apprenants (adaptive learning).

#### Références 
Ce travail est réalisé dans le cadre du laboratoire d’innovation (ILab)
[EDUMICS](https://www.inria.fr/innovation/recherche-partenariale-transfert/labos-communs-inria-pme/labos-communs-avec-les-pme/edumics)
entre Inria et Educlever3. 
Il a fait l&#39;objet de publications, dont &quot;Oscar Rodriguez Rocha, Catherine Faron-Zucker, Géraud Fokou Pelap :
[Article sur HAL](https://hal.archives-ouvertes.fr/hal-01619838).

A Formalization of the French Elementary School Curricula, Knowledge Engineering and Knowledge
Management - EKAW 2016 Satellite, Events, Bologna, Italy, Revised Selected
Papers, 82–94, Springer, 2017.

#### Auteurs/Autrices

Géraud FOKOU PELAP est docteur en informatique de l’ISAE-ENSMA et actuellement
ingénieur RD chez Inria et consultant chez Educlever, avec pour mission
d’intégrer les technologies du Web Sémantique dans l’environnement logiciel
d’Educlever.

Ses activités de recherche portent principalement sur la représentation des
connaissances, l’interrogation et le raisonnement sur les connaissances, la
relaxation des requêtes et la recommandation. Ses travaux ont été publiés dans
plusieurs journaux (KAIS) et conférences internationales (ESWC, EDBT, ISMIS).</description>
  <dc:date>2024-04-24T08:24+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195129</guid>
  <title>Re-Source : Une archive temps-réel pour documenter la production artistique</title>
  <link>https://cms.semweb.pro/talk/16195129</link>
  <description>Très rares sont les artistes géniaux qui produisent leurs oeuvres isolés dans leur tour
d’ivoire. La réalité est que la production artistique est presque toujours le fruit d’une longue
recherche, d’essais, d’erreurs, de hasards, mais surtout d’une collaboration. Dans la plupart
des cas, la documentation afférente à ce travail amont est soit perdue, soit foisonnante mais
déstructurée.

La fondation Lafayette Anticipations, dédiée à l’art contemporain est également un centre de
production et en tant que telle, elle souhaitait se doter d’un outil lui permettant de garder et
de structurer toutes les traces de tout ce qui se passait en atelier, en coulisses, avant
l’exposition de l’oeuvre et même au-delà. Cet outil devait lui permettre de constituer sa
propre mémoire de production, mais aussi permettre au public d’en apprendre plus sur
l’histoire des oeuvres qu’il venait visiter.

En collaboration étroite avec la fondation Lafayette Anticipations depuis plus de deux ans
maintenant, Mnémotix a réalisé un écosystème logiciel sémantique composée de plusieurs
briques :

* Weever : un carnet de production numérique permettant de documenter les
processus collectifs qui conduisent à la production des œuvres d’art. À la fois logiciel
de gestion électronique de documents, de suivi de projet et carnet d’adresse, cette
application est construite sur la base d&#39;une ontologie articulant trois sous-modèles
distincts mais reliés entre eux : un modèle événementiel pour l’activité “projet”, un
modèle documentaire pour la description des ressources de la Fondation, et enfin un
modèle de type réseau social basé sur FOAF.
* Koncept : un outil de gestion collaborative de référentiels SKOS. Le référentiel est
utilisé pour annoter les documents qui sont versés dans l’archive, soit de manière
semi-automatique, soit manuelle. Un système de reconnaissance automatique des
concepts à été développé afin de faciliter au maximum le travail de documentation.
* Synaptix : un framework permettant l’intégration de différents modules de traitement
dans une architecture réactive.

Lors de notre présentation, nous proposons de présenter ces outils et les moyens
techniques mis en oeuvre pour le déploiement et l’industrialisation de cette solution. Nous
présenterons également les modèles, la manière dont SKOS à été intégré dans un
environnement métier où personne (ou presque) n’a de formation en matière de
documentation. Nous ferons également un retour d’expérience et une présentation des
projets à venir et notamment les prochains déploiements de l’outil dans d’autres
environnements métier.

#### Auteurs/Autrices

**Nicolas Delaforge**​ , co-fondateur et gérant de la SCIC Mnémotix
Ingénieur, diplômé de l’Université de Technologie de Compiègne, spécialisé dans
l’ingénierie des industries culturelles, chercheur en sciences cognitives, il a participé
pendant trois ans au projet de dépôt légal du Web à l’Institut National de l’Audiovisuel (INA).
Il a rejoint l’INRIA en 2009 où il a été responsable pendant 4 ans d’un projet de recherche en
Web sémantique en partenariat avec l’ADEME et Orange.

Depuis 2013, il impulse dans Mnemotix une approche interdisciplinaire issue de deux
univers de recherche proches mais peu perméables jusqu&#39;à présent : celui de l&#39;ingénierie
documentaire et celui de l&#39;ingénierie des connaissances. Nicolas est également responsable
des développements technologiques et l’architecte du middleware sémantique Synaptix.</description>
  <dc:date>2024-04-24T08:12+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195215</guid>
  <title>Assisting the Semanticization of data with Vocabularies, Languages,and Tools</title>
  <link>https://cms.semweb.pro/talk/16195215</link>
  <description>Semantic Web researchers at the École des Mines de Saint-Étienne, FR, are
interested in making the Semantic Web formalisms and technologies more
accessible to the companies and the web of things. This presentation will
overview three of our recent contributions that all target this goal.

1) MINES Saint-Étienne leads a Specialist Task Force (STF) financed by the
European Telecommunications Standards Institute (ETSI), with the goal to
consolidate the Smart Anything REFerence (SAREF) standard ontology and its
community of industrial users, based on the experience of the the EUREKA
ITEA 12004 SEAS project  (3 years, 15 M€, 35 partners). The SEAS ontology
is modular and versioned, and is built on top of core reference ontology
patterns that can be instantiated to create the SEAS ontology itself with a
homogeneous and predictable structure for the modelling and the description
of any kind of engineering-related data/information/systems. Ontology
patterns are like design patterns in object oriented programming. They
describe structural, logical, or naming, best practices that one can
consider when building an ontology. https://ci.mines-stetienne.fr/seas/


2) SPARQL-Generate is an extension of SPARQL 1.1 for querying not only RDF
datasets but also documents in arbitrary formats. It offers a simple
template-based option to generate RDF Graphs from documents, and presents
the following advantages: a) anyone familiar with SPARQL can easily learn
SPARQL-Generate; b) SPARQL-Generate leverages the expressivity of SPARQL
1.1: Aggregates, Solution Sequences and Modifiers, SPARQL functions and
their extension mechanism; c) it integrates seamlessly with existing
standards for consuming Semantic Web data, such as SPARQL or Semantic Web
programming frameworks. One can use its Apache 2.0 implementation to
generate RDF from web documents in XML, JSON, CSV, HTML, CBOR, and plain
text with regular expressions.
https://ci.mines-stetienne.fr/sparql-generate/


3) The Linked Datatypes initative (LINDT) aims at enabling lightweight
descriptions of useful knowledge on the Web of Data, using simple RDF
literals empowered by RDF Datatypes. The flagship Datatype is cdt:ucum that
can be used to describe measurements with any unit defined in The Unified
Code for Units of Measure: a code system intended to include all units of
measures being contemporarily used in international science, engineering,
and business. Different from using existing vocabularies for quantities and
units of measures (schema.org, QUDT, OM, ...), SPARQL queries can leverage
the native SPARQL operators (=, &amp;lt;, etc.) to compare UCUM literals, and
arithmetic functions (+, -, *, /) to manipulate quantity value literals.
https://ci.mines-stetienne.fr/lindt/



#### Auteurs/Autrices
**Maxime Lefrançois** is Associate Professor in the Connected-Intelligence team
at the École des Mines de Saint-Étienne, France, since 2017. He prepared
his Ph.D. at INRIA Sophia-Antipolis on knowledge representation for the
Meaning-Text linguistic theory. Between 2014 and 2017, he was a
post-doctoral researcher at École des Mines de Saint-Étienne, and was
involved in several bilateral, national, and European projects, including
the ITEA2 SEAS project in the context of which he organized a 3 days
knowledge engineering workshop with 45 participants, that initiated the
development of the SEAS ontology: a modular and versioned ontology built on
top of the OGC&amp;amp;W3C SOSA/SSN standard, that consists of simple ontology
patterns that can be instantiated for different engineering-related
verticals. Maxime is a co-editor of the SOSA/SSN standard, and currently
works on injecting the SEAS proposals in the ETSI SmartM2M SAREF European
standard ontology. He is the initiator and main developer of the
SPARQL-Generate language and the Linked Datatype initiative. He has
experience in organizing workshops and tutorials in international events:
co-organizer of a ESWC 2018 tutorial &quot;from heterogeneous data to RDF graphs
and back&quot;, co-chair of a ISWC 2018 workshop on Semantic Sensor Networks,
and co-chair of the Workshops and Tutorials at IOT 2018.</description>
  <dc:date>2024-04-24T09:24+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195168</guid>
  <title>Ontology-Based Requirements Management</title>
  <link>https://cms.semweb.pro/talk/16195168</link>
  <description>Requirements management is a primary challenge for the industrial
enterprise. Development and operation of a capital asset involves tens of
thousands of requirements, spanning multiple engineering domains. Requirements
are issued by a variety of sources, including public authorities, standards
bodies, operators, contractors and suppliers. With manual work processes and
unsatisfactory coordination across stake-holders, requirements are a major
source of cost. In this talk, we will describe how an ontology-based approach to
digitalisation of requirements has been developed for the Norwegian Oil &amp;amp; Gas
industry. We outline the methodology, and demonstrate a working prototype for
developing, testing, and implementing digital standards. We also make a bold
claim: that the standards of the future will be provided as ontologies. 

In response to a well documented need for more cost effective requirements
management in Oil &amp;amp; Gas, a joint industry project (JIP) has been established for
the Norwegian Continental Shelf, to revise, restructure and digitalise the
NORSOK Z-standards for Technical Information. Initiated by Standards Norway and
DNV GL, and in close collaboration with the academic community and the Sirius
research centre in Oslo, the JIP has found broad industry support. O&amp;amp;G
authorities, the main operators, and the main engineering, procurement, and
construction (EPC) contractors have signed up for a two-year common effort.

An efficient representation of requirements must be at the same time generic
and sensitive to the characteristics of special subjects, whether in technical
domains or in the management of asset information. This means that we need a
common, multidisplinary vocabulary, uniform representation of requirements as
rules, and a precise way to validate consistency and correctness of a set of
requirements.

Ontologies in OWL DL fit the description for going from documents to
databases. The distinguished feature is automated reasoning with description
logic semantics. A modular ontology provides a multi-disciplinary vocabulary of
class definitions, suitable for automated consistency checking against an asset
described in that vocabulary. In the Norwegian O&amp;amp;G space we already have
large-scale systems in production, applying reasoning over ontologies to support
EPC projects.

Extending this basis to requirements, we need to manage normative modalities
- requirements, as norms, are not always satisfied. We need algorithms to
mangage defeasible constraints and agreed deviations from specifications. For
this, a methodology has been developed, drawing on ISO/IEC 81346 for lifecycle
perspectives and on the INCOSE Guide for Writing Requirements. A generic
ontology for representing requirements has been created. OWL DL reasoning lets
the computer derive which requirements apply to a type of equipment, or which
requirements apply to a selected component; and in cases of deviation, the
reasoner mechanism can identify where requirements are violated, and why.

A prototype implementation to support this methodology has been built, and
will be demonstrated during the presentation at SemWeb.Pro. This includes a
modular ontology, an expert friendly Excel format for building ontolgies from
straightforward templates, and end-user services for stating, verifying, and
testing a body of requirements. We obtain a tool for creating digital standards
that are suitable for for use with existing software application and databases,
as well as for information exchange.

#### Références
* Methodology and implementation for the NORSOK Z-TI standards, please note that a live demo can be made if suitable for the conference presentation format, but a video or on-line links are not yet available.
* [NORSOK](https://www.dnvgl.com/oilgas/joint-industry-projects/other/norsok-z-ti-shaping-the-future-of-standards-and-requirements.htm) :Requirements JIP, 2018-2020
* [Aker Solutions PUSH project](https://www.dnvgl.com/Images/Point-of-view%20Aker%20Solutions%20PUSH_tcm8-122111.pdf)
* [DNV GL](https://www.dnvgl.com/)
* [Sirius Centre for Scalable Data Access](http://sirius-labs.no/) in the Oil and Gas Domain
* [Reasonable Ontology Templates (OTTR)](http://www.ottr.xyz/)

#### Auteurs/Autrices

**Johan W. Klüwer**, Dr. philos., is a principal specialist with
DNV GL Digital Solutions. Since 2006, he has been engaged in making ontologies
work for industrial applications. This includes implementation for Oil &amp;amp; Gas
capital projects, adopting the ISO 15926 standard for OWL DL, and methodological
work, most recently in contributions to Reasonable Ontology Templates (OTTR).</description>
  <dc:date>2024-04-24T08:47+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195095</guid>
  <title>Le nouveau Portail de l’ISSN : identifier et décrire les ressources continues dans le web de données</title>
  <link>https://cms.semweb.pro/talk/16195095</link>
  <description>L’ISSN est un identifiant pérenne pour les « ressources continues » : cette
notion couvre aussi bien les revues ou la presse que les sites web ou bases de
données du domaine scientifique. L’unicité, la fiabilité et la pérennité de
l’ISSN s’appuient sur un système dédié : les numéros sont attribués par
quatre-vingt-dix Centre Nationaux, pour leurs pays respectifs, et sont associés
à un ensemble de métadonnées regroupées dans la notice ISSN. Les notices sont
versées dans le Registre de l’ISSN, base de données maintenue par le Centre
International de l’ISSN, qui décrit à ce jour deux millions de ressources,
imprimées ou en ligne. Les ISSN sont utilisés par l’ensemble des acteurs de la
chaîne de distribution des ressources continues : éditeurs, services
d’abonnement et de distribution, bibliothèques, outils de découverte, chercheurs
et lecteurs.


Jusqu’à présent, il était nécessaire de s’abonner pour pouvoir consulter le
Registre. Cela limitait la capacité de l’ISSN à s’insérer dans l’écosystème
d’identifiants du web de données. C’est pourquoi le Centre International a
décidé de développer un nouveau Portail, ouvert en janvier 2018. Il poursuit
deux objectifs : D’une part, il fournit à tous un accès libre à certaines
informations des notices, celles qui sont essentielles pour l’identification des
ressources (ISSN, titre, pays d’édition, etc.).  D’autre part, il offre aux
abonnés du Portail des informations enrichies (par récupération d’informations
de bases partenaires), ainsi que de nouveaux services de recherche, de
découverte et de téléchargement.  Le Portail est conçu aussi bien pour les
utilisateurs humains que les machines, en offrant des possibilités de
négociation de contenu (dans sa version libre) ainsi que différentes API (pour
sa version abonnés), permettant la récupération des informations
bibliographiques en RDF. A cette fin, le Centre International a développé un
modèle de données dédié, qui s’appuie à la fois sur des ontologies largement
employées (Schema.org et Dublin Core) pour les éléments les plus simples, et des
ontologies expertes (notamment Bibframe) pour les éléments spécifiques aux
ressources continues. Il est également conforme aux grands modèles
bibliographiques soutenus par l’IFLA (comme le « Library Reference Model »).


Cette intervention représenterait l’occasion de présenter le Portail, son modèle
de données et ses services, et de discuter avec les participants de cas concrets
d’utilisation des informations qu’il fournit, afin d’améliorer la description
des ressources continues dans le web de données.  

#### Références
[Portail de l&#39;ISSN](https://portal.issn.org) et [description du modèle de données de l’ISSN](http://www.issn.org/fr/comprendre-lissn/regles-d-attribution/profil-dapplication-de-lissn-pour-les-donnees-liees/)
    
#### Auteurs/Autrices

Clément Oury est responsable du service des Données, du Réseau
et des Normes au Centre International de l’ISSN. A ce titre, il a piloté le
développement du nouveau Portail de l’ISSN. Il est également président du groupe
de révision de PRESSOO, une extension de FRBROO consacrée aux publications en
série. Il a été auparavant responsable du service du Dépôt légal numérique à la
Bibliothèque nationale de France et Trésorier du Consortium International pour
la Préservation de l’Internet (IIPC).</description>
  <dc:date>2024-04-24T07:55+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195150</guid>
  <title>Maitriser une technologie de gestion desontologies et vocabulaires en France :défis et enjeux.</title>
  <link>https://cms.semweb.pro/talk/16195150</link>
  <description>Les principes FAIR [1] ont établi l&#39;importance d&#39;utiliser des vocabulaires ou
des ontologies pour décrire les données et faciliter l&#39;interopérabilité et la
réutilisation. Comme toutes autres données, les ontologies, vocabulaires,
thésaurus et terminologies doivent eux-mêmes être FAIR. Cependant, il est
fastidieux pour les experts du domaine d&#39;identifier les ontologies dont ils ont
besoin et de gérer leur hétérogénéité, et leur chevauchement. Bien qu&#39;il y ait
de multiples façons de rendre les ontologies FAIR, on s&#39;accordera à dire que
développer des portails ouverts d&#39;ontologies en fait certainement partie. Les
fonctionnalités des portails d&#39;ontologies vont d&#39;une simple liste avec plus ou
moins de descriptions de métadonnées (e.g., OBO Foundry, WebProtégé,
FAIRsharing, BARTOC), à des plateformes qui indexent le contenu et offrent des
services avancés : navigation, recherche, visualisation, métriques, annotation,
recommandation, etc. (e.g., LOV, OntoBee, CISMeF HeTOP, EBI OLS, NCBO BioPortal,
MMI ORR, OntoHub). Elles sont parfois thématiques, et le domaine biomédical a
initié plusieurs d’entre elles [2].  

BioPortal [3], le portail d&#39;ontologies de référence en biomédecine, construit
par le US National Center for Biomedical Ontology s&#39;appuie sur une technologie
ouverte, indépendante du domaine, régulièrement réutilisée. Par exemples, par
l’ESIP Portal, MMI ORR, BiblioPortal ou lorsqu’il faut traiter des données en
interne (e.g., hôpitaux).  

Il existe plusieurs défis pour les portails d’ontologies [4] : métadonnées et
sélection, multilinguisme, alignement, fournir des nouveaux services génériques,
les annotations et données liées, l’interopérabilité et le passage à
l’échelle. Au LIRMM, nous essayons de relever certains de ces défis dans le
cadre des projets SIFR BioPortal (http://bioportal.lirmm.fr) [5] et AgroPortal
(http://agroportal.lirmm.fr) [6] en réutilisant, la technologie du NCBO au
service des applications biomédicales (en français) et à l&#39;agronomie et ses
domaines connexes -agriculture, science des plantes, nutrition et biodiversité.

En partenariat avec l’Université de Stanford, nous développons et maintenons ces
deux portails d’ontologies et de services à base d’ontologies qui nous
permettent d’attaquer des problèmes de recherche complexes tels que le
traitement de la langue, l’alignement d’ontologies, l’annotation sémantique,
l’ingénierie ontologique, tout en étant pilotés par des scénarios d’applications
concrets dont les impacts en santé et agronomie sont mesurables. Ces projets
sont particulièrement fédérateurs pour plusieurs institutions de recherche
(INRA, IRSTEA, CIRAD, IRD, CGIAR) et ont un impact national et international
reconnu.


Aujourd’hui, le besoin pour des plateformes équivalentes se fait ressentir dans
différents domaines e.g., l’écologie, les sciences sociales, les géosciences. En
outre, avec l’adoption du Web sémantique dans le monde professionnel et l’impact
de standards de ressources sémantiques plus souples et accessibles comme SKOS,
les utilisateurs intéressés ne sont plus seulement les scientifiques mais inclus
tous les acteurs de la donnée en général.


Dans toutes les infrastructures de recherche, la question de la pérennisation se
pose. Quels sont les valorisations qui permettent de garder un modèle ouvert et
catalyseur de découvertes scientifiques ?  Comment encourager le partage des
données suivant les principes FAIR tout en pérennisant et consolidant les outils
impliqués ? Quels sont les enjeux pour la France ? - qui initie des projets
d’étude comme VisaTM [7] ou nous nous intéressons à la production de services de
text et data mining pour les scientifiques en France. Quid des enjeux de
l’adoption de SNOMED-CT par la France dans la santé ?  Comment répondre au
besoin de sémantique dans le futur paysage Européen de la science ouverte (EOSC
- European Open Science Cloud) ?


#### Références
[1] M. D. Wilkinson, M. Dumontier, et al. 2016. The FAIR Guiding Principles for scientific data
management and stewardship. Scientific Data, 3.

[2] M. D’Aquin and N. F Noy. 2012. Where to Publish and Find Ontologies? A Survey of Ontology
Libraries. Web semantics, 11(August):96–111.

[3] N. F Noy, N.H Shah, et al.. 2009. BioPortal: ontologies and integrated data resources at the click of
a mouse. In B Smith, editor, Nucleic Acids Research, volume 37, pages 170–173.

[4] C. Jonquet. 2017. Challenges for ontology repositories and applications to biomedicine and
agronomy. Keynote SIMBig 2017, Lima, Peru.

[5] C. Jonquet, A. Annane, et al. 2016. SIFR BioPortal : Un portail ouvert et générique d’ontologies et
de terminologies biomédicales françaises au service de l’annotation sémantique. 16th Journées
Francophones d’Informatique Médicale, JFIM’16, Geneva, Switzerland.

[6] C. Jonquet, A. Toulet, et al. 2018. AgroPortal: A vocabulary and ontology repository for agronomy.
Computers and Electronics in Agriculture, 144, pp.126-143.

[7] F. Kettani, S. Schneider, et al. 2018. Projet VisaTM : l’interconnexion OpenMinTeD – AgroPortal –
ISTEX, un exemple de service de Text et Data Mining pour les scientifiques français. 29emes journées
francophones d&#39;Ingénierie des Connaissances (IC’18). Session poster. Nancy, France.
  
#### Auteurs/Autrices
**Clément Jonquet** (LIRMM, Université de Montpellier), docteur en informatique, Maitre de Conférences
et chercheur invité à l&#39;Université de Stanford, a 10 ans d’expérience dans les ontologies et le Web
sémantique appliqués à la biomédecine et à l&#39;agronomie. Il travaille sur la conception et le
développement de portail d&#39;ontologies/vocabulaires et d&#39;outil d’annotation sémantique en tant que
porteur du projet SIFR (ANR-JCJC et H2020-MSCA), et co-porteur de l’ANR PractikPharma. 

Depuis 2015, il rassemble la communauté agronomique nationale et internationale autour de
l&#39;initiative AgroPortal. 
C. Jonquet est (co)auteur de +70 publications, qui cumulent plus de 2000 citations. Il est membre de
plusieurs comités de programmes de conférence en informatique et applications à la santé. Il a
organisé ESWC 2013, et plusieurs workshops dans le domaine. Il pilote également les groupes Meetup
Web Science Montpellier et AgroHackathon. Depuis 2010, il est enseignant à Polytech Montpellier
dans le département Informatique et Gestion.</description>
  <dc:date>2024-04-24T08:32+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195238</guid>
  <title>Vérificateur règlementaire sémantique et multi-échelle (BIM/CIM/LIM)</title>
  <link>https://cms.semweb.pro/talk/16195238</link>
  <description>La modélisation numérique des bâtiments et des espaces urbains tend à se généraliser autour des standards de format de données internationaux. On a remarqué que même si ces deux modèle peuvent bénéficier l&#39;un de l&#39;autre, ils ont mis en état de concurrence. Souvent, pour résoudre ce conflit, les chercheurs les intègre ou les unifie sous un méta model, mais cela résulte à une perte d&#39;information au niveau des deux modèle. Ma thèse visa à créer une interopérabilité entre les modèles numérique bâtiment/urbain qui générer une base de connaissance qui sera utiliser pour vérifier les réglementations au niveau bâtiments, ville et région.

Notre travail est divisé en deux partis : premièrement créer un modèle de connaissances à travers les sources de données hétérogènes. Deuxièmement de fournir une méthode de formalisation des règles urbaines.

Dans un premier temps, on vise à créer une interopérabilité entre le modèle de donnée bâtiment (BIM) et le système d&#39;information géographique (SIG) en s&#39;appuyant sur les technologies du Web sémantique et des approches granulaires pour réaliser une fédération à deux axes : horizontale et verticale. Ou la fédération horizontale a pour objectif la mise en oeuvre des liens sémantiques entre les termes/concepts de différentes ontologies/vocabulaires des domaines BIM et SIG. Et la fédération verticale a pour objectif de concevoir/gérer les différentes abstractions du même contexte/paysage tout en dépendant du problématique souhaitant traiter. Un modèle de connaissance de différents niveaux d&#39;informations et plusieurs niveaux de détails seront générés à partir de cette interopérabilité.

Dans un deuxième temps, on travaille sur l&#39;étude de la réglementation et les règles semi-formelles produites par les experts en les transformant en règles logique. Ou ces derniers seront catégorisés et relier suivant le niveau de développement créé dans le modèle de connaissance. La dernière étape est d&#39;appliquer les requêtes sémantiques sur le modèle de connaissance pour déduire les éléments non-conformes de la maquette numérique.

Grace à ces travaux, on devrait pouvoir soumettre un modèle de connaissance à une base de règles pour repérer automatiquement les risques de non-conformités. Par exemple, il pourra vérifier le respect de distance des bâtiments à la voirie, ou la continuité du cheminent accessible entre l&#39;espace public et l&#39;intérieur du bâtiment, ou encore la possibilité de raccordement d&#39;un bâtiment a un réseau de chaleur.
    
#### Auteurs/Autrices

Elio HBEICH, est diplômé de l&#39;Université de Bourgogne en 2018 avec un master 2 en base de données et intelligence artificielle. Il est actuellement, un doctorat en première année travaillant au sien de CSTB sous la direction de Dr. Ana Roxin et Nicolas Bus. Il travaille sur la réalisation de l&#39;interopérabilité entre les modèles BIM et SIG en appliquant les technologies sémantiques et sur la transformation des règles textuelles en requêtes sémantiques (Exemple : SPARQL) pour créer un vérificateur sémantique vérifiant la conformité des modèles de construction, des villes, territoires et bâtiments.</description>
  <dc:date>2024-04-23T14:19+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195072</guid>
  <title>Exploration de grands graphes de connaissance avec SemSpect</title>
  <link>https://cms.semweb.pro/talk/16195072</link>
  <description>Il est difficile de se faire une idée du contenu des grands graphes de connaissance. Les outils traditionnels de visualisation de graphes s&#39;avèrent peu pratiques dès que le nombre d&#39;objets et leur degré de connexion augmente, et les interfaces de requête textuelles ou à base de formulaires sont peu adéquates pour accompagner les tâtonnements inhérents aux tâches exploratoires. Pour éviter les requêtes incompatibles avec les données, certains outils guident l&#39;interrogation grâce à l&#39;utilisation de facettes, mais la présentation linéaire ou tabulaire des résultats rend leur interprétation laborieuse.

Le logiciel SemSpect, basé sur une architecture REST avec une interface HTML5, permet l&#39;exploration visuelle de graphes de connaissances RDFS/OWL contenant plusieurs millions d&#39;objets. La particularité de l&#39;approche utilisée réside dans la vue d&#39;ensemble arborescente très synthétique de relations entre groupes d&#39;objets construite pas à pas par l&#39;utilisateur. Cette interaction, guidée à la fois par le schéma et par les données, rend tangibles les relations existant entre les différents types d&#39;objets du graphe tout en limitant la quantité d&#39;informations présentées, les détails sur les objets d&#39;un groupe ou leurs relations restant accessibles à la demande.

Pour pouvoir répondre à des requêtes spécifiques, chaque groupe d&#39;objets de la vue d&#39;ensemble peut être filtré en utilisant la classification prédéfinie par le modèle ainsi que les attributs des objets qu&#39;il contient. Cette fonctionnalité associée à la possibilité d&#39;enregistrer les explorations pour une utilisation ultérieure permet de réaliser l&#39;équivalent de requêtes paramétrées complexes. De plus, tout groupe d&#39;objets obtenu lors d&#39;une exploration peut être utilisé pour créer une nouvelle catégorie (définie par les requêtes implicites qui ont permis son obtention) qui vient affiner la classification initiale. L&#39;utilisateur peut ainsi se constituer peu à peu une boîte à outils d&#39;exploration personnalisée.

La configuration du système permet d&#39;adapter les informations accessibles aux besoins des différents groupes d&#39;utilisateurs (types et attributs des d&#39;objets, critères et granularité de classification, ...) et la déclaration de classes facettes dans le modèle initial donne un accès automatique à des informations statistiques et des moyens de filtrage rapide dans l&#39;interface pour les types d&#39;objets concernés.

Nous présenterons l&#39;architecture du système puis ses principales fonctionnalités à l&#39;aide d&#39;une exploration en direct des données extraites des Panama Papers par l&#39;ICIJ [1]. SemSpect étant actuellement utilisé par une unité policière et par une entreprise produisant des systèmes d&#39;automatisme industriel, nous ferons également part de notre retour d&#39;expérience.

[1] [http://panama.semspect.de](http://panama.semspect.de)


#### Auteurs/Autrices
**Vincent Vialard** a rejoint la société derivo GmbH en 2013 comme ingénieur de recherche
dans le cadre du projet GraphScale, une coopération avec l&#39;université d&#39;Ulm ayant pour but
le développement d&#39;un moteur d&#39;inférence pour bases de données sémantiques. Il est aujourd&#39;hui
responsable du développement de GraphScale et de SemSpect.</description>
  <dc:date>2024-04-26T09:58+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195078</guid>
  <title>Victory of Openness: Where next?</title>
  <link>https://cms.semweb.pro/talk/16195078</link>
  <description>Openness has thrived in recent years, not only in the Linked Open Data space, but also in
Open Science, Open Access, Open Education, Open Educational Resources... but where do we
go from here? How could we make the most of all this knowledge sharing over the web?
With the diffusion of open-source software and publishing technologies, contributing to the
web today is both easy and inexpensive. But how do we go from making content openly
available to harnessing the web’s most powerful feature —links— to connect, contextualise,
and ultimately make resources more discoverable?

As cultural heritage organisations around the world digitised their collections, they have also
built idiosyncratic web applications and digital repositories that are largely disconnected from
the rest of the web.

While open publishing practices and increased accessibility are generally positive,
discoverability remains a challenge. Moreover, for libraries and cultural heritage
organisations, the mission of disseminating knowledge is only half complete if their resources
are not easily found and used.

Greater awareness of this need to connect and contextualise resources has led to a growing
number of online repositories and digital collections being built with shared ontologies and
linked open data in mind. These developments represent concrete steps towards greater
interoperability between collections. This creates new opportunities for inter-linking readily
available digital resources for enhanced discoverability.

In this talk, André Avorio will investigate the emerging landscape of open and interconnected
digital collections from cultural heritage organisations around the world. He will present the
challenges and experiences involved in building the Open Music Library (OML), the world’s
largest free index of digital resources for the study of music. The Open Music Library is a real
professional application that leverages shared ontologies, linked open data and principles of
the semantic web to connect disparate music collections and to establish meaningful links
between the items they hold.

By aggregating, enriching and integrating valuable digital resources, the Open Music Library
aims not only to advance the state of the art in knowledge discovery over the web, but also to
create opportunities for creative reuse, and to promote new possibilities for research and
collaboration. The initiative currently includes digital music collections from the Bibliothèque
nationale de France, Biblioteca Nacional de España, British Library, the Library of Congress,
the National Library of Poland, and others.

#### Auteurs/Autrices

**André Avorio** is a digital innovator specialising in online collaboration and open platforms.
Working in the intersection of business strategy, digital technologies and user experience,
André has led digital transformation and product development projects in Brazil, US and the
UK. He heads the Open Music Library initiative at Alexander Street, pairing open access and
for-fee multimedia content with cutting-edge digital technologies to transform the way people
research, learn and teach. André is a graduate of the University of Oxford’s Internet Institute
with a focus on the strategic challenges faced by the education and publishing sectors
catalysed by the emergence of digital technologies. Learn more about him at
andreavorio.com.</description>
  <dc:date>2024-04-26T10:01+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195061</guid>
  <title>The PANDORA Linked Open Data Presentation Framework</title>
  <link>https://cms.semweb.pro/talk/16195061</link>
  <description>&lt;p&gt;The interconnection of data in the Humanities gets more and more in the focus of research projects. Therefore Christopher Johnson developed a Linked Open Data framework that allows through the combination of a Fedora 4 repository with IIIF APIs and triple stores a SPARQL query driven solution for the Presentation (of) Annotations (in a) Digital Object Repository Architecture (PANDORA). The concrete implementation of PANDORA is a group of distributed web applications that depend on a specification document called a “Manifest” for how they present the data to the client. In PANDORA, the Manifest is a JSON-LD document constructed from Digital Object Repository (FEDORA) resources dynamically using SPARQL. The semantics and conceptualization of the Manifest are in the scope of the IIIF Presentation API, within which is defined how the structure and layout of a complex image-based object can be made available in a standard manner. The architecture of the framework allows easy linking and aggregating the data stored in the Fedora repository. It is available through a triple store that has a public accessible endpoint, while the internal data is handeled by an internal triple store.&lt;/p&gt;

    &lt;p&gt;Through the use of the PANDORA IIIF Manifest Service , the complete graph of a Presentation Manifest represented as several related RDF collections (i.e. sequences of LDP Containers) with their member properties and values can be serialized in JSON-LD with identical semantics and format as the specification. This service additionally allows the dynamic construction of a Manifest document based on SPARQL selection criteria that is available by means of the statements about any annotation resource. In this short presentation we will introduce the architecture and function of the system and like to discuss the possible usage and advantage of a linked data driven solution for digital cultural heritage research.&lt;/p&gt;
    &lt;h5&gt;Références&lt;/h5&gt;&lt;div&gt;
    &lt;a href=&quot;https://github.com/pan-dora/&quot;&gt;https://github.com/pan-dora/&lt;/a&gt;&lt;br/&gt;

PANDORA: Linked Open Data Image Publishing :  &lt;a href=&quot;https://youtu.be/TEqUkiO6tcA&quot;&gt;https://youtu.be/TEqUkiO6tcA&lt;/a&gt;&lt;br/&gt;

Implementing the IIIF Presentation 2 0 API as a Linked Open Data Model in the Fedora Repository : &lt;a href=&quot;https://youtu.be/1KatIxhQx0E&quot;&gt;https://youtu.be/1KatIxhQx0E&lt;/a&gt;&lt;br/&gt;


    &lt;/div&gt;&lt;h5&gt;Auteurs/Autrices&lt;/h5&gt;&lt;div&gt;&lt;strong&gt;Jörg Wettlaufer&lt;/strong&gt; studied History, History of Art and Physical Anthropology at Bochum, Kiel and Paris. He received his Ph.D. in 1998 for an interdisciplinary study on a problem in the history of late medieval law. From 1996 to 2011 he was involved in a research project on late medieval courts and residences. At the Centre for Digital Humanities at Göttingen from 2012 to 2015 he worked for the Academy of Science and Humanities in the project ‘Digital Library and Virtual Museum’. He is currently Digitization Coordinator of the Academy, member of the E-Research Alliance council and on the Göttingen Dialog in Digital Humanities (GDDH) advisory board.&lt;/div&gt;</description>
  <dc:date>2022-09-16T09:38+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195004</guid>
  <title>L’entreprise digitale agile grâce aux ontologies</title>
  <link>https://cms.semweb.pro/talk/16195004</link>
  <description>Les technologies du web sémantique – OWL, RDF et SWRL – permettent d’exprimer, dans
une ontologie, 100% du « quoi » métier sous une forme précise et compacte, facilement
compréhensible par les « sachants », en toute indépendance du « comment » informatique.

Basée sur la logique formelle, cette ontologie est exécutable : on peut lui fournir des données
de tests et les résultats obtenus sont explicables, dans le langage du métier, jusqu’au niveau de
détail le plus fin. Il est donc possible d’identifier les erreurs conceptuelles au tout début du cycle
de développement, quand le coût du changement est le plus faible. Après quelques itérations,
la MOA est en mesure de fournir une spécification correcte et complète du problème métier.

Grâce à une API automatiquement générée, l’ontologie est utilisable telle quelle par les
informaticiens, dans le langage de leur choix. Libérés de l’interprétation du problème métier,
la MOE peut se concentrer sur la construction technique de la solution, en ajoutant ce qui n’est
pas défini dans l’ontologie (et qui ne doit pas l’être, sous peine d’introduire du « bruit » non
sémantique) : frameworks IHM, bases de données, intergiciel, protocoles de sécurité, etc.

Comme la totalité du problème métier est exprimée dans l’ontologie, le nombre de lignes de
code à écrire est considérablement réduit. En cas de changement, l’ontologie est modifiée,
validée et réutilisée au travers de l’API générée à nouveau. On obtient ainsi une agilité
exceptionnelle combinée à une qualité proche du zéro défaut, malgré les changements.

Comme toute nouvelle application doit nécessairement être intégrée à un patrimoine souvent
« en silos », la même démarche, centrée sur l’expression du sens métier profond, est appliquée
à l’intégration : on sépare la définition du « quoi » métier de l’intégration technique en alignant
le sens métier de tous les systèmes pour que les données partagent une sémantique commune.

Cette démarche est rendue possible grâce à la plate-forme ontologique ODASE avec laquelle
plusieurs systèmes « centrés ontologie » ont été développés et mis en production. Une
originalité forte de ODASE est d’inclure à l’ontologie des règles métier exprimées en SWRL,
exécutées à très haute performance et rendant toute l’application transparente pour les métiers.

Nous présenterons une application du domaine ferroviaire : la corrélation d’alarmes. Cette
application doit exploiter des données provenant de trois systèmes d’information conçus
indépendamment, unifier leur sens et modéliser les corrélations d’alarmes par des techniques
du domaine de l’IA. Cette application « centrée ontologie », développée en un mois, contient
moins de 500 lignes de code (Java, Javascript) et s’exécute avec une performance comparable
à celle d’une application codée « en dur ».

#### Références
    Démonstration : https://youtu.be/zWD8clb-eS0&quot;&amp;gt;https://youtu.be/zWD8clb-eS0

#### Auteurs/Autrices

Co-fondateur et PDG de ODASE Ontologies, **Michel Vanden Bossche** a plus de 40 ans
d’expérience informatique, en tant qu’entrepreneur, scientifique et gestionnaire. Il a participé
à l’émergence d’innovations majeures : programmation logique, ordinateurs « ouverts »,
réseaux TCP/IP, Internet et technologies sémantiques. À l’origine de la création de la plate-
forme ontologique ODASE, il a dirigé plusieurs projets de recherche européens depuis leur
création et conduit de nombreuses missions de consultance stratégique dans le domaine des
NTIC. 
Il a été président de l’association belge des sociétés de services (INSEA).</description>
  <dc:date>2024-04-25T15:19+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16194980</guid>
  <title>Industry Ontologies Foundry: Industrial applications of ontologies</title>
  <link>https://cms.semweb.pro/talk/16194980</link>
  <description>Recently, there has been promising technical developments and reporting of specific ontologies for use in industrial domain. Yet, most of the industrial ontology development work remains within the purview of academic research and does not have significant uptake in commercial applications. Lack of semantic interoperability and fully usable ontologies further deepens the chasm between the ontology research and its adoption in the industry. Ontologies are not widely known and used in industry. In contrast, Ontologies have made significant inroads in the Biomedical domain as valuable tools for achieving interoperability of data systems deriving from heterogeneous sources. In this work, we present, a set of principles learned from the successful Open Biomedical Ontologies (OBO) Foundry initiative to guide the design and development of Industry Ontologies Foundry (IOF).

Existing developed ontologies suffer from interoperability. In almost all cases, these ontologies, are developed independently, with no reuse of ontology work from the outside and no attempt to profit from lessons learned in earlier initiatives. Hence, they cannot be exploited as a reference in an industrial large scale.

We advocate that the IOF will advance the issue of interoperability in the industrial domain and the reticence to adhere ontology as a reliable solution for this issue. This reticence is due to the problems that persist in ontology engineering such as building methodologies, reusability, integration, etc. as well as costs and dependability.

In this presentation, we will describe a full-integrated strategy to provide an open ontology framework, called Industry Ontologies Foundry (IOF), involving a suite of principles-based ontologies, which broadly represent a hub-and-spokes model. The hub will contain a small number of reference ontologies that are non-redundant in the sense that they contain no terms in common.

In addition, the standardization and the adherence of the foundry by organizations such as NIST, AFNOR, IFAC, interopVlab, IFIP, etc. will encourage industries to accept ontologies as a trustworthy solution for their interoperability problems.
The presentation will conclude with a demonstration of ontology-based Product-Service System (PSS) applications developed and implemented in the H2020 FoF [project FALCON](http://www.falcon-h2020.eu/).

#### Références
*  [http://ieportal.ncor.buffalo.edu/ontologies](http://ieportal.ncor.buffalo.edu/ontologies&amp;amp;lt)
*  [http://www.falcon-h2020.eu](http://www.falcon-h2020.eu/)
*  [http://www.obofoundry.org/](http://www.obofoundry.org)

#### Auteurs/Autrices
**Prof. Dimitris Kiritsis**, co-founder of the IOF initiative

Prof. Dr. Dimitris Kiritsis is Faculty Member at the Institute of Mechanical Engineering of the School of Engineering of EPFL, Switzerland, where he is leading a research group on ICT for Sustainable Manufacturing. His research interests are Closed Loop Lifecycle Management, IoT, Semantic Technologies and Data Analytics for Engineering Applications. He served also as Guest Professor at the IMS Center of the University of Cincinnati, and Invited Professor at the University of Technology of Compiègne, the University of Technology of Belfort-Montbéliard and at ParisTech ENSAM Paris. Prof. Kiritsis is actively involved in EU research programs in the area of Factories of the Future and Enabling ICT for Sustainable Manufacturing. He has more than 200 publications. Since September 2013 Dimitris is Chair of IFIP WG5.7 – Advanced Production Management Systems and member of the Advisory Group of the European Council on Leadership on Enabling Industrial Technologies – AG LEIT-NMBP. He is also founding fellow member of the International Society for Engineering Asset Management (ISEAM) and of various international scientific communities in his area of interests including EFFRA.</description>
  <dc:date>2024-04-25T14:44+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16194992</guid>
  <title>Le casse-tête de l&#39;adoption de modèles sémantiques dans l&#39;univers documentaire</title>
  <link>https://cms.semweb.pro/talk/16194992</link>
  <description>Les hospices civils de Lyon (HCL), 2ème centre hospitalier universitaire
de France, détiennent un fond documentaire de plus de 500.000 ressources
(articles, livres, presse, posters, textes législatifs, etc.…) et dont les
métadonnées sont à disposition du grand public. Ce catalogue, utilisé à la
fois par des étudiants et des professionnels du monde médical, ne cesse de
s&#39;enrichir et a pour vocation de s&#39;aligner avec de multiples référentiels.

Cependant, depuis des années, les métadonnées bibliographiques ont été
gérées selon le paradigme de &quot;notices&quot;. Cela veut dire que les informations
concernant chaque ressource sont gérées sur une structure de données plate
(c.a.d., liste de paires clé-valeur) où la sémantique n&#39;est pas toujours
clairement définie. Cette façon de cataloguer est une barrière importante à
la gestion et surtout la réutilisation de ces données pour plusieurs
raisons.  D&#39;abord, le fossé entre le manque de flexibilité des modèles
utilisés et le besoin de représenter des structures de connaissances riches
et complexes ont conduit à des choix de modélisations très spécifiques et
difficiles à interpréter par une machine. Ensuite, l&#39;héritage d&#39;années à
utiliser des systèmes et modèles figés a donné lieu à des pratiques de
catalogage hétérogènes, souvent éloignées des standards, qui contraignent
les possibilités d&#39;interopérabilité avec d&#39;autres sources de données. Un
changement radical a été initié pour les données du catalogue HCL en faisant
évoluer l&#39;existant format de notices vers un modèle sémantique.

La société Progilone, éditrice de la solution Syrtis, a travaillé avec les
hospices civils de Lyon pour réaliser la migration et l&#39;intégration des
métadonnées du catalogue dans le nouveau système. Ce travail a soulevé
plusieurs challenges liés à l&#39;interprétation automatique des données ou
encore la transformation d’un modèle initialement &quot;plat&quot; vers un graphe
d&#39;entités et associations. Aujourd&#39;hui, la migration des données HCL a été
entièrement réalisée, donnant lieu à une base de connaissances de plus de 3
millions d&#39;entités représentées via l&#39;ontologie FRBR et le vocabulaire
RDA. 

Il est possible de naviguer dans cette [base de données en ligne](http://documentationcentrale.docchu-lyon.fr/).  

Le projet est désormais passé à l&#39;étape suivante qui consiste en l&#39;alignement
et l&#39;enrichissement sémantique des entités via d&#39;autres sources de données,
leur diffusion en open-data, selon les standards du Web Sémantique, et leur
gestion via de nouvelles pratiques de catalogages. 
A travers cette présentation, nous revenons sur les challenges rencontrés
lors de ce projet d&#39;adoption d&#39;un modèle sémantique pour des données riches
et issues de formats anciens. Elle comportera une description de la démarche
méthodologique, des solutions apportées ainsi qu&#39;un retour d&#39;expérience
pratique sur les nouveaux enjeux liés à la modélisation et à l’intégration
de données documentaires.

#### Références
    *[http://www.progilone.fr/fr/syrtis](http://www.progilone.fr/fr/syrtis)
    *[BNF Modélisation](http://www.bnf.fr/fr/professionnels/modelisation_ontologies/a.modele_FRBR.html)
    *[Transition Bibliographique](https://www.transition-bibliographique.fr/enjeux/definition-rda/)
    *[Format Marc](https://fr.wikipedia.org/wiki/Format_MARC&quot;&amp;gt;https://fr.wikipedia.org/wiki/Format_MARC)

#### Auteurs/Autrices
La présentation serait assurée par **Joffrey Decourselle** de l&#39;entreprise
Progilone, candidat au doctorat à l&#39;université de Lyon et spécialiste des
problématiques d&#39;enrichissement sémantique de données culturelles.</description>
  <dc:date>2024-04-25T14:53+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195196</guid>
  <title>City Moove : une plateforme sémantique pour construire et exploiter des bases de connaissances touristiques</title>
  <link>https://cms.semweb.pro/talk/16195196</link>
  <description>City Moove est une plateforme sémantique permettant de collecter et d&#39;agréger
différent type d’information culturelle et touristique. Elle est composée de
collecteurs qui traitent des formats de données hétérogènes tels que des flux
RSS, des exports XML ou CSV, des réponses à des APIs en JSON, etc. Le modèle de
données au coeur de la plate-forme repose sur et étend Schema.org. L’information
ainsi agrégée constitue un graphe de connaissances représenté en RDF. La
plateforme moissonne en continu des flux d’informations donnés, par exemple, à
une fréquence quotidienne permettant ainsi une mise à jour de la base de
connaissances. La plateforme dispose d’un module de dédoublonnage, indispensable
dès lors que différentes sources décrivant potentiellement les mêmes objets,
sont agrégées. Le moteur de dédoublonnage repose sur STEM
(https://github.com/enricopal/STEM), un algorithme supervisé permettant
d’améliorer à la fois la précision et le rappel concernant l’interconnexion de
données RDF calculée à partir de logiciels tels que DUKE ou SILK. La plateforme
dispose également d’un module permettant de prédire la catégorie des
événements. Au final, la plateforme a été utilisé pour différentes zones
géographiques : l’île de St Barthelemy, la région de la côte d’azur, et un
certain nombres de grandes villes telles que Milan, Amsterdam ou Londres.


Nous illustrerons le fonctionnement de la plateforme en utilisant la base de
connaissances créées couvrant la région de la Côte d’Azur, soit plus de 250
communes s’étalant entre Monaco et St Tropez. Les flux collectés proviennent
d’offices de tourisme (Nice, Cannes, Antibes, Mandelieu, Grasse), du comité
régional de tourisme, de salles semi-privées (le palais des festivals), de
l’open data (Open Agenda, Data Tourisme), de bases de données professionnelles
(APIDAE), ou du web (Facebook, Google, Foursquare, Yelp, Eventful, Evensi,
Meetup). La base de connaissances contient plus de 335k points d’intérêts, 100k
revues et plus de 30k événements collectés depuis 2 ans. Nous montrerons comment
ce graphe de connaissances touristiques peut être aussi complété ou corrigé
grâce à un outil de contrôle éditorial attaché au système de gestion de contenu
WordPress. Des applications clientes peuvent alors consommer les données, soit
en interrogeant directement un point d’entrée SPARQL, soit en utilisant l’API
City-Moove. Nous montrerons différentes interfaces graphiques Web de type moteur
de recherche exploratoire ou des applications mobiles restituant des parties du
graphe de connaissances.

Nous avons enfin développé Minotour, un assistant conversationnel intelligent
se nourrissant de la base de connaissances. Minotour combine plusieurs moteurs
de compréhension du langage naturel (NLU) et repose sur une architecture
modulaire construite au dessus de Botkit. Il permet de répondre à toute sorte de
question d’ordre touristiques concernant les événements et activités à faire,
les lieux à visiter, l’offre d’hébergement ou de restauration disponible, tout
en ajoutant des informations contextuelles telles que les prévisions
météorologiques ou l’offre de transport public. Minotour est disponible sur de
nombreuses applications de messagerie tels que Facebook Messenger, Skype,
Telegram ou Slack, ou sur des enceintes connectées (Google Home, Amazon Alexa).


#### Auteurs/Autrices

**Frédéric BOSSARD** est président et chargé des relations avec la clientèle Grand 
Compte de l’Agence de communication digitale WACAN dont la majorité des références
sont liés au marché du Tourisme : Communauté Européenne, Communauté d’Agglomération
Sophia Antipolis, Ville de Nice, Ville de Saint-Laurent-du-Var, Conseil Régional P.A.C.A., C
onseil Général 06, Aéroport de Nice, etc.

C’est à l’issu de cette forte expérience que Monsieur Frédéric Bossard et Mr jean-Claude Guignard
ont créé la start-up Data-Moove en identifiant les problématiques rencontrées par les professionnels
du tourisme pour la promotion de leurs produits (événements, manifestations, lieux, …) à leurs clients 
potentiels.

C’est lors de cette activité que Monsieur Bossard a pu définir une solution répondant à ce besoin
fortement qualifié de gestion et de diffusion d’une donnée touristique à haute volumétrie provenant
de plusieurs sources, utilisée par différents intervenants et supports médias.</description>
  <dc:date>2024-04-24T09:15+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16194986</guid>
  <title>Opentheso, un logiciel de gestion de thésaurus au cœur du web sémantique</title>
  <link>https://cms.semweb.pro/talk/16194986</link>
  <description>Opentheso est un logiciel de gestion de thésaurus multilingue et multihiérarchique, il permet de gérer et de normaliser un ou plusieurs référentiels. Son utilisation est assez simple et conviviale, il s’installe indifféremment sur les plateformes Linux, Mac et Windows. Il est ouvert et interconnectable, gère les identifiants pérennes (ARK, Handle), propose l&#39;import et l&#39;export en SKOS, Json_Ld, Turtle et CSV et dispose de Webservices  REST. Opentheso est actuellement utilisé par les 39 bibliothèques du réseau Frantiq (thésaurus Pactols), le GDRI Zoomathia sur la transmission des savoirs zoologiques anciens et bien d’autres.

Voici quelques fonctionnalités du logiciel :

* gestion avancée des concepts (création, modification, déplacement…)
* gestion des collections/sous collections
* alignement automatique et par lot avec gestion des sources d’alignement
* historique pour chaque concept 
* fusion des concepts
* module de gestion de candidats avec système d’alerte automatique
* gestion des images associées aux concepts
* gestion des droits à plusieurs niveaux
* Import/export au format CSV, SKOS, Json-Ld, Turtle
* Identifiant pérenne (ARK, Handle)


Opentheso est actuellement intégré à plusieurs chaines de traitement de l’information, par exemple, il est connecté nativement au SIGB Koha (Système Intégré de Gestion de Bibliothèque) et à la plateforme « DiscoveryTools » proposée par la société Progilone. Il est aussi connecté à la chaine d’édition numérique de Caen via son « webservices ».


Opentheso bénéficie de soutien de différents partenaires, la TGIR Huma-Num, le GDS-Frantiq, la MAE de Nanterre et le Consortium MASA (Mémoires des Archéologues et des Sites Archéologiques). Il est développé par Mr. Miled Rousset IE1, situé à la MOM au sein du PSIR. Il a aussi bénéficié de nombreux appuis de stagiaires et de CDD. Il est présenté à des nombreuses manifestations, il a fait l’objet de plusieurs ateliers et formations pour la prise en main par les usagés.
Il est diffusé Actuellement en OpenSource sur GitHub sous Licence CECIL, accompagné de la documentation pour l’installation et l’aide pour l’utilisateur.

#### Références
* [Lien vers le dépôt (sources et documentations)](https://github.com/miledrousset/opentheso) 
*  Lien vers un [site de démonstration ou bac à sable](http://opentheso3.mom.fr) 

voici les coordonnées d’un compte administrateur : 
user=demo1 / pass=demo1&lt;br/&gt;

Liens vers des sites en productions :

* [Frantiq](http://pactols.frantiq.fr) 
* [MOM](http://thesaurus.mom.fr)
* [Zoomathia](http://web.cepam.cnrs.fr/opentheso)
* [Health&amp;amp;co](http://opentheso.healthandco.fr)
* [Huma-Num](http://opentheso-hn.huma-num.fr/opentheso)


#### Auteurs/Autrices

**Miled Rousset IE1**, ingénieur en développement d’applications, spécialisé dans le domaine de l’indexation sémantique, la gestion, la fusion de données et la diffusion de fonds documentaires.
Je suis rattaché à la MOM (FR-3747 Maison de l&#39;Orient et de la Méditerranée).

J’occupe actuellement deux fonctions :
* Responsable de la plate-forme technologique TRD (Têtes des Réseaux Documentaires) du réseau national des Maisons des Sciences de l’Homme (RnMSH)
* Directeur technique du GDS3378 (Groupement de Services) du réseau FRANTIQ (Fédération et Ressources sur l&#39;ANTIQuité)</description>
  <dc:date>2024-04-24T14:24+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195163</guid>
  <title>Faciliter la création de tables de correspondance sémantique entre standards européens et standards nationaux : La plateforme de mapping.</title>
  <link>https://cms.semweb.pro/talk/16195163</link>
  <description>A partir du mois de juillet, les Etats-membres de l’Union Européenne sont
invités à créer des tables de correspondance (“mapping efforts”) entre leurs
classifications nationales de métiers/compétences et ESCO (le système européen
de correspondance entre les compétences, les certifications et les
métiers). Pour les assister dans cette tâche, la Commission Européenne a décidé
de mettre à la disposition des États Membres une application web leur permettant
de faciliter et d’accélérer le processus de création des “mapping efforts”.

Le but sous-jacent de cet alignement est d’améliorer la compréhension entre
Etats membres des compétences et métiers existants dans chaque Etat. Par ce
fait, la volonté de la Commission Européenne aspire à favoriser le marché de
l’emploi et de l’éducation en Europe.


En effet, une fois l’ensemble des classifications nationales de métiers et de
compétences reliées à la classification européenne ESCO ; un recruteur du Pôle
Emploi (en France) sera en mesure de voir si l’ouvrier letton qui postule à un
emploi a les compétences requises. A cet exemple peut venir s’ajouter la
dimension de l’Education ; un étudiant français souhaitant travailler dans un
métier particulier en Italie pourra identifier les compétences qu’il doit
acquérir au cours de ces études pour obtenir un emploi en relation avec ce
métier en Italie.


La plateforme de mapping est une application web qui permet de faire
correspondre i.e. aligner sémantiquement deux schémas de concepts/taxonomies
différents, précédemment modélisés en SKOS (skosifiés)1. À travers ce logiciel,
les experts nationaux responsables de la création des “mapping efforts” peuvent
sélectionner un concept (métier ou compétence) dans la classification source
(e.g. ESCO) et la faire correspondre à un, ou plusieurs, concepts équivalents de
la classification cible (e.g. ROME).


ESCO est disponible dans toutes les langues de l’Union Européenne, facilitant la
comparaison des concepts provenant d’ESCO et ceux provenant d’une classification
nationale.  

Les utilisateurs du logiciel peuvent créer des correspondances en recherchant
manuellement le(s) concept(s) à faire correspondre (“mapper”) entre la
classification source et la classification cible mais peuvent également, après
avoir sélectionnée le concept à faire correspondre, accéder à des suggestions de
correspondance proposées par le logiciel lui-même.  

Cette fonctionnalité utilise ElasticSearch, qui compare :

* Le label du concept de la taxonomie source avec l’entièreté des concepts de la taxonomie ciblée,

* Le code ISCO2 de la classification cible (si présent) avec le code ISCO lié au concept ESCO.

Un facteur exhaustif a été inséré dans l&#39;algorithme pour donner plus
d’importance aux résultats comportant des correspondances exactes entre les mots
composant les labels des concepts des classifications source et cible. 

L’application propose à l’utilisateur/rice un choix décroissant des meilleurs
résultats parmi lesquels il/elle sélectionne les plus pertinents à “mapper”.


Figure 1 - Suggestions de correspondance entre une compétence ESCO et la
classification autrichienne des compétences

Un fois ceux-ci sélectionnés, la relation entre les concepts des deux taxonomies
doit être spécifiée selon les propriétés de mapping SKOS : closeMatch,
narrowMatch, broadMatch, exactMatch.



Figure 2 - Création de correspondances entre ESCO et la classification Slovène
des métiers Lorsqu’une correspondance est créée et validée, celle-ci est
sauvegardée dans une base de données RDF3.

La plateforme permet d’importer des schémas de concepts préalablement
“skosifiés” au format CSV, de créer des tables de correspondance entre ces
taxonomies et d’exporter ces tables au format CSV ainsi que RDF/SKOS. La
plateforme permet également d’importer des tables de correspondance (mapping
efforts) précédemment créées (hors de la plateforme). 

La plateforme de mapping sera premièrement utilisée par les États Membres dans
le cas exemplifié, mais elle ne se limite pas à celui-ci. Ainsi, la plateforme
peut également être utilisée par des acteurs privés souhaitant établir des
relations entre différents référentiels de données.

Une brève démonstration de la Mapping platform est disponible à l&#39;adresse suivante :
http://ior.ad/y6t

#### Auteurs/Autrices

**Dominique Vandensteen** est responsable du développement chez Cognizone. Ses 20
années d’expérience en tant que développeur et architecte d’applications ont
construit ses vastes connaissances du développement d&#39;applications web
(sémantiques, en particulier), de la programmation et des architectures java, en
général.

**Gregory De Backer** est chef de programme et analyste business chez Cognizone. Mr. De
Backer est un consultant expérimenté actuellement impliqué dans plusieurs
projets en lien avec l’amélioration de l&#39;interopérabilité (notamment sémantique)
au sein du marché du travail et de la législation européenne.</description>
  <dc:date>2024-04-24T08:40+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195184</guid>
  <title>Explorer la synergie entre le Web sémantique et la vision par ordinateur pour la personnalisation dans le e-tourisme</title>
  <link>https://cms.semweb.pro/talk/16195184</link>
  <description>Les progrès récents dans le domaine de la vision par ordinateur ont permis bon
nombre d&#39;applications utiles telles que la détection des visages, la
recherche d&#39;image par le contenu, l&#39;annotation automatique des images et
le véhicule autonome. Les graphes de connaissances encodent les connaissances
communes humaines dans un format formellement structuré. Ils alimentent les
applications comme la recherche sémantique, la recherche exploratoire, le calcul
de la similarité entre les documents et les systèmes de
questions-réponses. Plusieurs travaux de recherche récents ont montré des points
de convergence intéressants entre ces deux domaines : l&#39;amélioration de la
qualité de la détection des objets avec les graphes de connaissances externes,
la description des scènes avec des triplets, la complétion des graphes de
connaissances avec des caractéristiques visuelles et la recherche
visuo-sémantique, pour n&#39;en citer que quelques-uns.


Nous explorons la synergie entre le Web sémantique et les outils de vision par
ordinateur dans le contexte des systèmes de personnalisation qui n&#39;a pas été
suffisamment étudié jusqu&#39;à présent. Aujourd&#39;hui, un grand nombre de
données multimédia sont disponibles sur le Web et sont produites
continuellement. Sur le Web Social, les utilisateurs publient et partagent des
images et des vidéos sur de différents réseaux sociaux comme Facebook, Twitter,
Instagram et Flickr. Sur les sites du e-commerce, les images jouent un rôle
important dans la découverte des produits et la prise de décision. Les sites Web
modernes doivent être dotés de dispositifs capables de comprendre les
préférences de leurs utilisateurs à travers leurs interactions avec les données
multimédia et d&#39;adapter les services en conséquence pour fournir une
meilleure expérience utilisateur.



Nous présentons deux nouvelles applications dans le e-tourisme. La première
application crée, à partir d&#39;une image, un profil utilisateur contenant
plusieurs entités DBpedia qui représente les préférences d&#39;un utilisateur qui
apprécie l&#39;image. La deuxième application utilise la première application
pour améliorer les systèmes de recommandation. Dans une bannière de
recommandation, on ordonne les images associées au produit recommandé et affiche
l&#39;image qui correspond le mieux aux préférences de l&#39;utilisateur dans le but
d&#39;augmenter son affinité envers le produit. Les papiers décrivant ces
applications sont publiés aux congrès ESWC 2018 et SEMANTICS 2018. La
présentation abordera les motivations, les détails techniques, les expériences
académiques et les éventuels impacts sur l&#39;industrie touristique. Elle sera
accompagnée d&#39;une démonstration.

#### Références

Vous pouvez télécharger une vidéo de démonstration d&#39;une durée de 40 secondes à ce lien:
https://drive.google.com/file/d/1OmMd5lIIte2K9yratnDmpYc5Htg3g2Uy/view?usp=sharing

#### Auteurs/Autrices

**Vincent Lully** est doctorant CIFRE à Sorbonne Université et dans l&#39;entreprise
Sépage. Il est spécialisé dans le système de recommandation touristique
mobilisant les technologies du Web sémantique. Ses travaux ont été publiés dans
des congrès clefs du Web sémantique comme ESWC. Il est membre du comité de
programme des congrès prestigieux tels que TheWebConf et ISWC.</description>
  <dc:date>2024-04-24T09:03+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195190</guid>
  <title>DATATOURISME en coulisses : aperçu technique de la plateforme et retoursd’expériences sur les développements</title>
  <link>https://cms.semweb.pro/talk/16195190</link>
  <description>Projet lauréat de la première tranche du Programme d’investissement d’avenir,
DATATOURISME est une plateforme :
* d’alignement, d’agrégation et de normalisation, des données touristiques
françaises. (volet PRODUCTEUR)
* de requête et d’abonnement à des flux de données de formats variés en vue de leur
utilisation par des services tiers. (volet DIFFUSEUR)


Porté par la DGE ainsi que par Tourisme et territoires, le projet à mobilisé
tous les savoirs faire de CONJECTO qui fut chargé des développements de la
plateforme.  Opérationnelle depuis fin 2017, celle-ci accueille (au 14/06/2018)
43 producteurs, 1612 flux diffuseurs actualisés régulièrement pour un total de
218 083 POI représentant 11 336 366 triplets. La volumétrie attendue sur
l’ensemble des données est de 400 000 POI.

La présentation mettra l’accent sur la description de plusieurs composants innovants par rapport à
l’état de l’art lors du début des développements.

* Une interface d’alignement XML &amp;gt; RDF ergonomique et ontology driven
* Un processus robuste d’alignement, normalisation, validation et publication des ressources RDF
* Une API d’abstraction de requête SPARQL basée sur le langage GraphQL


Nous mettrons également en lumière un certain nombre de freins rencontrés sur ce projet, ainsi que
les solutions utilisées pour contourner ceux-ci.

* Sérialisation vers différents formats (RDF/SPARQL Result) en stream, au travers d’un
stockage key-value
* Optimisation des requêtes SPARQL sur BLAZEGRAPH

#### Références
Le site du projet : http://www.datatourisme.fr/
La plateforme : https://www.datatourisme.gouv.fr/ (inscription diffuseur possible)

#### Auteurs/Autrices

Arrivé tôt dans l’informatique, **Blaise de CARNÉ** démarre
sa carrière comme développeur en ESN et gravit rapidement les échelons jusqu&#39;au
poste de directeur technique.  Il s’intéresse avec enthousiasme aux technologies
du Web Sémantique depuis 2012, avec un fort focus sur l’utilisation de ces
technologies en production.  Il cumula les fonctions de chef de projet et de
lead developper sur DATATOURISME.

Après un DEA MIAGE, **Serwan CRAVIC** a suivi un parcours
d’ingénieur logiciel dans diverses sociétés, notamment dans le domaine
médical. Passionné par le WebSem et sa philosophie, il a mobilisé ses
connaissances sur l’optimisation des temps de réponses de la plateforme. Il fut
responsable de l’architecture logicielle de DATATOURISME.</description>
  <dc:date>2024-04-24T09:06+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195155</guid>
  <title>« UPTIME, Unified PredicTIve Maintenance SystEm, the Minority Report solution for the machines!</title>
  <link>https://cms.semweb.pro/talk/16195155</link>
  <description>Traditional maintenance approaches are under-optimized. 20% savings on total
maintenance costs and improvements of Overall Equipment Effectiveness (OEE) are
achievable.  Most of the predictive maintenance solutions only offer analytics
capabilities. Operators have to assert themselves the maintenance action to
implement and to manually balance between multiple variables to decide on the
optimal implementation time.  The UPTIME solution is built upon the predictive
maintenance and four integrated technological pillars, i.e. Industrial Internet,
IoT, Big Data and Proactive Computing.  The collect and aggregation of data is
supported by the use of technological standards as the semantic web standards.
UPTIME is a fully adaptable, open and modular end-to-end predictive maintenance
solution for industry, from sensor data collection to optimal planning. Through
advanced prognostic algorithms and on-line failure mode analysis, it predicts
upcoming failures. Then, decision algorithms recommend the best action to
optimize maintenance and to improve OEE.  UPTIME can be implemented in any
industry regardless of its processes, products and physical models.  UPTIME is
being implemented for 3 first industrial use cases: Mobile assets for
aeronautics, white goods production system and cold rolling mill lines.


The presentation will include a show case to highlight the features and benefits
of UPTIME: Health assessment through measured data will be simulated according
various scenarios, the data will be computed by UPTIME, which will propose
maintenance possible actions ordered according different criteria.

#### Références
Uptime WebSite: https://www.uptime-h2020.eu/     

#### Auteurs/Autrices

**Yves Keraron**, Founder and CEO of ISADEUS (Innovation Standards And Digital
Engineering Using Semantics), has continuously worked for innovation, first in
nuclear engineering, then in information systems for technical data and
documentation to support the activities of the lifecycle of complex products or
production systems.  ISADEUS has been recently involved in European H2020
projects for the Factory of the Future, using new technological standards,
especially web standards for industry : FALCON and UPTIME.  He is an expert in
the National Commission IDMI (Ingénierie des Données et de Modèles pour
l’Industrie) of AFNOR. 
He is active in the Industrial Internet through the use of advanced web standards
to satisfy the needs of industry to manage the growing volume of data. 
He is graduated of Ecole Centrale des Arts et Manufactures (Ecole Centrale Paris)
and completed a PhD on the impact of digital technologies on the relationships
between Technical, information and human systems 
 


&lt;p&gt;
&lt;strong&gt;Karl Hribernik&lt;/strong&gt; studied Computer Science at the University of Bremen. He is
manager of the department Intelligent ICT for Co-operative Production at
BIBA. His research focus is on the semantic interoperability of heterogeneous
and dynamic data sources in closed-loop and item-level Product Lifecycle
Management. He is currently the coordinator of the H2020 Factories of the Future
project UPTIME – Unified Predicitive Maintenance System.
&lt;/p&gt;&lt;p&gt;

&lt;strong&gt;Ntalaperas Dimitris&lt;/strong&gt; was born in Athens, Greece in 1980. He received his BSc and
MSc from the Computer Engineering and Informatics Department of the Polytechnic
School of the University of Patras. His Master Thesis was in simulation of
quantum computers implemented in doped semiconducting materials. He conducted
research and worked in the areas quantum computing, simulation of physical
system, boundary element method, big data, text processing, data anonymization
and semantic web. He held a number of positions as a researcher or software
engineer in various institutions and companies (RACTI 2005-2008, BemSands
2008-2010, Technological Educational Institute of Patras 2009-2010, University
of Patras 2008-2010, Ubitech 2012-). He participated in a number of EC and
National co-funded projects in the areas of e-Health (Linked2Safety, DISYS,
CAREPATHS, GRANATUM) being involved mainly in the tasks of Data Anonymization,
Named Entity Recognition and Rule based Decision Support Systems. In the context
of Marie Curie Actions, he also participated in the SAGE-CARE Project during
which he seconded Hochschule Darmstadt and Università degli Studi di Napoli
Federico II and was trained in the areas of Semantic Web and High Performance
Computing.
&lt;/p&gt;</description>
  <dc:date>2024-04-24T08:37+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195113</guid>
  <title>Un KnowledgeGraph sur étagère pour votre LinkedData</title>
  <link>https://cms.semweb.pro/talk/16195113</link>
  <description>&lt;p&gt;Nous présentons la maquette d&#39;un moteur de recherche pour les ressources
d&#39;un LinkedData.
Cet outil léger permet à moindre coût de profiter d&#39;un Knowledge Graph au
dessus de vos données sémantiques.
Cet outil couple un indexeur des propriétés standards du Web Sémantiques
(labels, types, sameAs)
et un outil visuel de gestion de requêtes sémantiques (modélisation
sémantique des requêtes, compilation en SPARQL et template HTML, stockage
dans le cloud).
Sans connaissance technique avancée, il est ainsi possible de rechercher
des ressources d&#39;un LinkedData à partir de ses propriétés textuelles, de
les associer à un pool de requêtes pertinentes pour le type de ces
ressources, et d&#39;en afficher les résultats sous forme graphique (HTML avec
liens vers les ressources connexes).
L&#39;objectif de cet outil est de simplifier la mise en place d&#39;un moteur de
recherche façon Knowledge Graph, et ainsi de pouvoir  se concentrer sur la
sémantique des données exploitées, la définition rapide de snippets
graphiques et les liens potentiels entre les ressources des datasets
indexés.
Nous présenterons des exemples basés sur le LinkingOpenData (DBPedia,
Doremus, LinkedGeoData, ...).
AInsi qu&#39;un scénario complet allant de la sémantisation du fichier CSV de
la base Sirène (entreprises et établissements administratifs français) à
son intégration dans le Knowledge Graph public accessible sur le site
&lt;a href=&quot;http://search.datao.net&quot;&gt;search.datao.net&lt;/a&gt;.&lt;/p&gt;
&lt;h4&gt;Références&lt;/h4&gt;
&lt;p&gt;&lt;a href=&quot;http://datao.net&quot;&gt;http://datao.net&lt;/a&gt;
&lt;a href=&quot;http://search.datao.net&quot;&gt;http://search.datao.net&lt;/a&gt;&lt;/p&gt;
&lt;h4&gt;Auteurs/Autrices&lt;/h4&gt;
&lt;p&gt;&lt;strong&gt;Olivier Rossel&lt;/strong&gt; est le développeur principal des outils
&lt;a href=&quot;http://Datao.net&quot;&gt;Datao.net&lt;/a&gt; et Search.Datao.Net. L&#39;objectif de ces outils est la
simplification et l&#39;uniformisation de l&#39;interaction avec les données
sémantiques (recherche, affichage, navigation) selon les principes des
KnowledgeGraphs.&lt;/p&gt;</description>
  <dc:date>2024-04-24T08:02+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195145</guid>
  <title>WASM is the new CLASS</title>
  <link>https://cms.semweb.pro/talk/16195145</link>
  <description>&lt;p&gt;Dans cette présentation, je présenterai deux technologies, WebAssembly et
le langage de programmation Rust, qui vont probablement changer
significativement la manière de concevoir des applications Web – et donc
des applications Web sémantique…
&lt;/p&gt;&lt;p&gt;
WebAssembly est un langage exécutable binaire bas niveau, interprété par
une machine virtuelle, ayant notamment vocation à être intégrée aux
navigateurs. Il devient donc possible de créer des applications Web 1)
écrites dans n’importe quel langage pour lequel un compilateur WebAssembly
est disponible, et 2) s’exécutant avec des performances comparables à
celles du code natif. On pense bien sûr aux débuts de Java et aux *applets*,
qui ont perdu la bataille face à la flexibilité de Javascript. Mais
WebAssembly est mieux intégré au navigateur que ne l’était Java, notamment
pour interagir avec le code Javascript, qu’il a plus vocation à compléter
qu’à remplacer. WebAssembly est en cours de standardisation par le W3C,
mais déjà implémenté dans Chrome, Edge, Firefox et Safari.
&lt;/p&gt;&lt;p&gt;
Actuellement, les seuls langages bénéficiant d’un compilateur WebAssembly
sont C, C++... et le nouveau venu Rust. Ce langage, développé par Mozilla
depuis 2010, et qui a franchi le cap de la version 1.0 en 2015, est
aujourd’hui une alternative sérieuse à C ou C++. Basé sur un paradigme
original pour la gestion de la mémoire, il offre des garanties fortes sur
la sécurité des programmes (absence d’erreurs de segmentations, *thread
safety*), sans sacrifier les performances. Tout ceci, donc, avec la
possibilité de compiler des applications natives *et* des applications
WebAssembly.
&lt;/p&gt;&lt;p&gt;
Je donnerai une vue d’ensemble de ces technologies, et une rapide
démonstration des outils qui permettent de les mettre en œuvre. Enfin, je
présenterai un projet open-source que j&#39;ai initié, qui consiste à
développer une boite à outil Web Sémantique en Rust, utilisable dans des
applications natives et des applications Web.
&lt;/p&gt;
    &lt;h5&gt;Références&lt;/h5&gt;&lt;div&gt;
    &lt;/div&gt;&lt;h5&gt;Auteurs/Autrices&lt;/h5&gt;&lt;div&gt;
    &lt;strong&gt;Pierre-Antoine CHAMPIN&lt;/strong&gt; est enseignant chercheur à l&#39;Unversité
Claude Bernard Lyon 1.
Il travaille depuis 1999 sur les technologies du Web Sémantique, et a
participé à plusieurs groupes de travail du W3C, notamment RDF 1.1 et
Linked Data Platform.
    &lt;/div&gt;</description>
  <dc:date>2022-09-16T09:38+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
<item>
<guid isPermaLink="true">https://cms.semweb.pro/talk/16195118</guid>
  <title>Bien (?) recevoir le web sémantique dans sa cuisine interne</title>
  <link>https://cms.semweb.pro/talk/16195118</link>
  <description>L&#39;Agence Bibliographique de l&#39;Enseignement Supérieur a pour mission principale
d&#39;organiser le recensement de toutes les ressources documentaires acquises par
les bibliothèques universitaires. De plus en plus d&#39;éditeurs partagent leurs
métadonnées, qu&#39;elles concernent les livres, les chapitres ou les articles. Nous
nous efforçons de les collecter et de les intégrer dans notre système
d&#39;information bibliographique, pour les rendre interrogeables par les
utilisateurs du Sudoc et récupérables par chaque bibliothèque de notre réseau
pour alimenter son propre catalogue. Au passage, nous essayons d&#39;améliorer la
qualité de ces métadonnées, en les rendant plus cohérentes et plus riches. Leur
qualité est encore améliorée par le travail des 3 000 catalogueurs du réseau
Sudoc.

Ce workflow d&#39;intégration et d&#39;enrichissement des métadonnées des éditeurs
scientifiques tourne autour d&#39;une base de données RDF. Les technologies du web
sémantique répondent parfaitement à nos besoins : intégrer des métadonnées
hétérogènes ; exprimer de l&#39;information en employant des vocabulaires standards
différents, voire en forgeant en dernier recours de nouvelles propriétés et
classes, sans se laisser enfermer dans un schéma de base de données figé ;
enrichir les métadonnées centrales par la sédimentation de données
complémentaires de toutes sortes disponibles sur le web.


Mais ce nouveau workflow doit vivre dans un environnement donné, à savoir le
système d&#39;information existant et le capital des ressources humaines aujourd&#39;hui
disponibles à l&#39;ABES. La base RDF doit coexister et collaborer avec des
programmes et des données qui correspondent à des choix et des compétences
techniques qui sont les ... moyens du bord. A force de tâtonnements et de
compromis pragmatiques, nous avons travaillé à intégrer ce workflow sémantique
dans notre environnement. Le résultat est opérationnel, mais il servira
également de leçon pour concevoir le prochain SI de l&#39;ABES, qu&#39;il repose en son
cœur sur RDF ou pas.


#### Auteurs/Autrices

Yann NICOLAS est bibliothécaire à l&#39;ABES (Agence Bibliographique de
l&#39;enseignement Supérieur) depuis 2003, sur différents projets d&#39;informatique
documentaire : calames.abes.fr, idref.fr, theses.fr, API Sudoc, Alignement,
Linked data, etc.  +Séduit par le Web sémantique en 2006. Praticien depuis 2008,
pas à pas.</description>
  <dc:date>2024-04-24T08:04+00:00</dc:date>
  <dc:creator>admin</dc:creator>
</item>
  </channel>
</rss>