shakedown.social is one of the many independent Mastodon servers you can use to participate in the fediverse.
A community for live music fans with roots in the jam scene. Shakedown Social is run by a team of volunteers (led by @clifff and @sethadam1) and funded by donations.

Administered by:

Server stats:

244
active users

#wikidata

8 posts5 participants0 posts today
Continued thread

I’m not complaining. #Wikidata has to explain really rich relationships between vague entities. But it is not simple to understand or even to parse and process in meaningful ways.

There’s a ton of detail in the very polymorphic data model and context matters, greatly.

It is entirely too early in the day to be needing my #Wikidata dictionary to parse this documentation: 😆

“A Snak provides some kind of information about a specific Property of a given Entity. Currently, there are three kinds of Snaks: value, somevalue or novalue. A value snak represents a specific value for the property, which novalue and somevalue only express that there is no, or respectively some unknown, value.”

doc.wikimedia.org/Wikibase/mas

Never mind the fact there are three separate type fields at play here: snaktype, datatype, and type. The “somevalue” type is really doing a number on me.

doc.wikimedia.orgWikibase: JSON

Wir freuen uns heute auf den Werkstattbericht von Yann LeGall im Rahmen unserer Online-Reihe Digitale Provenienzforschung in Universitätssammlungen mit dem Thema:
"Significant event: Looting": Wikidata-Modelle zu kolonialer Plünderung und afrikanischem Kulturerbe

HEUTE 04.06.25
🕑13:00-14:00 Uhr
💻hu-berlin.zoom-x.de/j/65594132

Weitere Infos: sammlungen.io/termine/digitale
#ProvenanceResearch #SODaZentrum #Kolonialismus #Kulturerbe #Wikidata

Replied in thread

@dmontagne
Plusieurs cas :
- la personne est créée dans #wikidata et matche automatiquement
- la personne est créée mais il y a ambiguïté : on peut vérifier avec ses identifiants Isni, BNF, sudoc...
- la personne n'est pas créée : elle peut l'être lors de l'import des données.

Avant d'importer, on peut genrer en travaillant sur la base prénoms d'#OpenRefine et en affinant manuellement.

Voici enfin le schéma d'import dans #wikidata avec les champs, propriétés et déclarations.

Continued thread

@dmontagne présente les origines d'#OpenRefine, ses avantages et l'enrichissement des données dans #wikidata sur les #JO2024.

Passage à la démo à partir du prix de #poésie Roger Kowalski, un des plus anciens prix littéraires en France qui est #lyonnais
38 données à importer, nettoyer avec les filtres et différentes fonctions d'édition : très intuitif !
Elle fait ensuite correspondre (réconcilier) les données avec #wikidata

Replied in thread

@macgraveur @CharlesNepote
moi j'utilise wikibase.cloud pour la gestion des photos de famille
daieuxetdailleurs.wikibase.clo
n'ayant pas réussi à y connecter OpenRefine, je n'ai pas envisager d'y injecter plus de contenus "Individus" dedans pour l'instant. Par contre j'adore rajouter des infos biographiques / prosopo dans #Wikidata 😇

cc @GillianeKern

daieuxetdailleurs.wikibase.cloudd'Aïeux et d'Ailleurs