@felixlohmeier @lobid Wir (SLUB LOD API) reichern daher die Wikidata-URIs, neben den Daten aus den Entityfacts-Dumps, direkt über einen Abgleich mit den in den Quelldaten enthaltenen Identifier (GND, VIAF, GeoNames) mit Wikidata an. Für dein Beispiel: https://data.slub-dresden.de/gnd/4269071-7. Python-Skript zur Wikidata-Anreicherung: https://github.com/slub/esmarc/blob/master/enrichment/wikidata.py
@jensen Cool, wie lange läuft das Script und wie oft aktualisiert ihr?
@felixlohmeier Unsere Grundlage sind ja die Titel-/Normdaten des SWBs (SLUB-Ausschnitt). Jeder Datensatz der über das Tagesupdate kommt, wird mit unterschiedliche Wissensbasen (Wikidata, Entityfacts,...) abgeglichen. Das geht natürlich recht schnell. Für den Gesamtindex (ca. 9 Millionen Normdaten) dauert es schon einige Tage länger. 😎 Einen kontinuierlichen Abgleich mit Wikidata hatten wir testweise am Laufen, jedoch hat sich das Pythonskript nach einiger Zeit in einen Zombieprozess verwandelt.
@jensen @felixlohmeier Hmm, vielleicht sollten wir für lobid-gnd über so etwas auch mal nachdenken. Wäre wohl nicht allzu aufwendig aus. Allerdings würde das die Lage noch unübersichtlicher machen, wo denn nun ein bestimmter sameAs-Link herkommt. 😛