Ich glaube, dass in vielen Fällen die Datenmenge nicht ausschlaggebend für eine Cloud-Lösung ist. Man kann auch 40 Mio. Marc-Datensätze lokal auf dem Laptop mit Solr und R auswerten. Aber die leichte Nachnutzung von (Roh-)Daten und Code schon.

Zu Lernwegen würde ich noch ein Desiderat ergänzen: Library Carpentry Workshop als Startpunkt, anknüpfend daran weiterführende Module, die zu Learning Paths (z. B. Metadatenmanagement) zusammengestellt werden, so wie das bei Oreilly, Udemy und Co. der Fall ist. Alles frei zugänglich, mit Modul-Verantwortlichen, Mentoren und Lernforen.

Beim Aspekt "Lernwege" kommt die Forderung an Arbeitgeber nach:
- Arbeitszeit fürs Ausprobieren („Lernprojekte“) und Festhalten
- flexible IT-Governance
- Kooperationsmöglichkeiten

Für Analysen von großen Datenmengen wie die von Unpaywall wird Google Cloud Platform verwendet. Vorteil: Kollaboration mit anderen Einrichtungen, die mit den gleichen Datenquellen arbeiten und Analysen nachnutzen.

Jetzt konkrete Anwendungsbeispiele für Data Analytics an der SUB Göttingen. Bei Publikationsanalysen sind Rohdaten nicht frei, aber der Code für die Analyse: github.com/subugoe/oa2020cadat

Zur Motivation verweist Najko auf science.sciencemag.org/content
Bibliotheken sollten das Feld des Datenmanagements und -analyse nicht den kommerziellen Playern überlassen. Sonst drohe eine "Datenkrise" ähnlich der Zeitschriftenkrise.

Gestern über das sehr schön gestaltete Magazin increment.com/ gestolpert. Thema des aktuellen Hefts: Frontend! 😍

Ist das deren Ernst? So ein großes Projekt wie FOLIO sucht Leute, die für lau Tests schreiben? Und den Lockdown als Aufhänger benutzen?

twitter.com/MikeTaylor/status/

Phú boosted

Magst du das Web, UI-Entwicklung und die Arbeit mit offenen Daten? Dann bewirb dich, wir suchen eine*n Entwickler*in: blog.lobid.org/2020/05/19/stel

Welches Spaß- und/oder Lernprojekt würdet ihr machen, wenn ihr dafür ein Tag in der Woche Zeit hättet?

Interaktiver Vergleich der Zitationen in Google Scholar, Microsoft Academic, Diemensions, WoS etc. albertomartin.shinyapps.io/cit

Die Untersuchung basiert auf einem Sample von 2515 Dokumenten aus Google Scholar. Es ist die Rede von "relatively low quality of the metadata available in GS".

Sören Auer über "Typische Fehlannahmen bei (IT-)Projekten
(nicht nur) der öffentlichen Verwaltung". docs.google.com/presentation/d

Interessant finde ich Folie 10 "Scheitern durch zu hohe Professionalität". Und die Tatsache, dass ein Bibliotheksdirektor sich zu Projektmanagement äußert. Auch wenn er seine Einrichtung wohl nicht "Bibliothek" nennen möchte.

"The Scientific Paper Is Obsolete" theatlantic.com/science/archiv

Unter github.com/jupyter/jupyter/wik gibt's eine Liste mit "Reproducible academic publications" Würde mich freuen, wenn Bibliotheken über das OJS- und Repositorien-Hosting hinausgehen würden..

Habe spaßeshalber BigBlueButton installiert: bbb.openbiblio.eu/b
Wer das auch mal testen möchte, kann das gerne tun. Besonders viel Speicherplatz ist nicht vorhanden (ca. 100GB), daher bitte keine stundenlangen Recordings. Alle Daten (logs, recordings etc.) werden nach 2 Tagen gelöscht.
Ist natürlich nur zum Spielen gedacht und kann jederzeit offline gehen.

Mal ein etwas anderes Abendprogramm: ich schaue dem Googlebot zu, wie er den Dokumetenserver abgrast.

Welche IP-Listen verwendet ihr, um Zugriffe von Bots aus euren Statistiken rauszufiltern?
DSpace verwendet die Listen von iplists.com die es aber gar nicht mehr gibt. jira.lyrasis.org/browse/DS-312

Show more
OpenBiblio.Social

Der Einstieg in das Mastodon-Netzwerk für Bibliotheksmenschen