Noch ein Tool für das halbautomatische Matching und die Verlinkung mit Normdaten, zurzeit GND via lobid und Geonames: basicdemo.saw-leipzig.de/
vorgestellt auf der fdhl.info/briefeditionen/

"It would be a pity if the semantic web, through lack of quality control and diffuse dysfunction, contributed not to greater knowledge, but to greater ignorance."
Closing remark in Zuckerman's presentation "Linked Data and Holocaust-Era Art Markets: Gaps and Dysfunctions in the Knowledge Supply Chain"
vimeo.com/482968998#t=1250s

Microsoft Academic hat den Thesaurus MeSH sehr nett in die Suche integriert: als Suchvorschlag, als Hilfe bei der Suchformulierung und als Co-Occurrence in der Facette: microsoft.com/en-us/research/p

Cool auch, dass man “Yann LeCun while at New York University” suchen kann!

Datacite Commons aggregiert Daten, die einen persistenten Identifier haben: blog.datacite.org/datacite-com

Die Seite zur Uni Hamburg commons.datacite.org/ror.org/0 zeigt 25,498 Works, meist Datensätze.
Aber keine People.

Wie kann man den erwähnten use case “show me all citations for datasets funded by a particular grant” bedienen?

Heißt auch, was keine PI hat, existiert nicht.

Zum Vergleich die Uni Hamburg in Microsoft Academic: academic.microsoft.com/institu

Yay, habe mich für die registriert. Das ist meine erste swib!

Phú boosted

Wer will Leiter:In des Referats mit dem wahrscheinlich längsten Namen in der werden? Mit Sicherheit DAS Referat in unsere IT-Abteilung, welches am nächsten an den bibliothekarischen Prozessen dran ist. Erfahrungen aus beiden Welten sind daher sicher sehr willkommen! sbb.berlin/8v7eid

Phú boosted

Das heutige Seminar hat sehr viel Spaß gemacht, alle haben engagiert mitgemacht und viele interessante Dinge beigetragen. (Wir haben mindestens einen Bug im GND-RDF entdeckt.) Danke an alle Teilnehmer*innen!

Die Folien zum Seminar: slides.lobid.org/2020-zbiw/

"adhoc shotgun parsing" ist wirklich ein schöner Begriff 🙂

Datenstrukturen ändern sich, APIs ändern sich. Lenses sind bidirektionale Übersetzungen zwischen zwei Datenstrukturen (z. B. Versionen eines Datenschemas) und sollen die Kompatibilität verbessern. Im Projekt Cambria hat man dieses Konzept in Form einer Typescript-Bibliothek praktisch erprobt. inkandswitch.com/cambria.html

Bei uns sind zwei **unbefristete** Stellen ausgeschrieben:

* DevOps-Entwickler:in (E 13) blog.sub.uni-hamburg.de/?p=298

* Unixadmin (E 11) blog.sub.uni-hamburg.de/?p=299

Es ist nicht ganz ausgeschlossen, dass wir zusammenarbeiten werden. Also überlegt Euch die Bewerbung gut 😉

Phú boosted

Gestern durfte ich im Lenkungsausschuss des Weiterbildungsstudiengangs Bibliotheks- und Informationswissenschaft an der ZB Zürich die Initiative Library Carpentry vorstellen. Hier die Präsentationsfolien:
felixlohmeier.de/slides/2020-0. Eine tolle Plattform, um gemeinsam internationale Lehrmaterialien für Tools im Bibliothekswesen zu erstellen. Fertige Materialien gibt es für , , , , , , und . librarycarpentry.org/lessons/

Phú boosted

RT @wonkestehle@twitter.com

Guten Morgen! Herr @_dmaus@twitter.com und ich suchen dauerhaft Verstärkung in der IT der @StabiHH@twitter.com (E13, DevOps Entwicklung, unbesfristet) Alle weiteren Details hier: blog.sub.uni-hamburg.de/?p=298

🐦🔗: twitter.com/wonkestehle/status

Phú boosted
Phú boosted

Kurz angetestet, sehr praktisch: Webhint - a linting tool for the web webhint.io/
Gibt's als Erweiterung für Visual Studio Code, via christianheilmann.com/2020/09/

In der aktuellen Version 3.3 ist wohl eine alte URL der Wikidata-API hinterlegt. Da wird eine Umleitung gemacht und das führt zu einem Fehler in OpenRefine. In der Konsole sieht man den Fehler.
Die aktuelle Adresse ist wdreconcile.toolforge.org/en/a

Vor ca. zwei Stunden habe ich in OpenRefine die Wikidata-Reconciliation für >3000 Werte gestartet, mit Auto-match. Sie läuft immer noch. Versuch macht klug oder so 😅

Klingt gut, was das Projekt "Daten Lesen Lernen" macht:
1. Lehrveranstaltung "Data Literacy Basics" für Bachelorstudierende aller Fächer
2. Etablierung eines Datalabs
3. kuratierte und qualitätsgeprüfte
uni-goettingen.de/de/daten+les

Programming Historian ist wirklich ein tolles Projekt! Einige Infos zu technischen Arbeiten an der Plattform gibt's hier: matthewlincoln.net/2020/06/18/
Ich mag auch deren begründete Haltung: programminghistorian.org/posts
Sie brauchen Unterstützung: programminghistorian.org/en/su

Cool, die Daten der DNB kann man jetzt direkt downloaden, eine individuelle Zugangskennung ist nicht mehr notwendig. dnb.de/DE/Professionell/Metada

Show more
OpenBiblio.Social

Der Einstieg in das Mastodon-Netzwerk für Bibliotheksmenschen