Want to come work with me on #wikidata? My team is hiring!

Want to come work with me on #wikidata? My team is hiring!
Want to work on the best knowledge there is? We have an opening for a software engineer on the @wikidata team!
https://wikimedia-deutschland.career.softgarden.de/jobs/56640059/Software-Engineer-Wikidata-all-genders-/
@wikimediafoundation @Wikipedia #wikipedia #wikidata
This is a hard time to hire; LLMs are flooding your inbox with fake job candidates. So, I'm letting you know that I just applied to your role *Tech Lead, Wikidata Platform*. As a senior dev & lead I have scaled software up by 10s of millions of users. And, I am a real human.
I’m not complaining. #Wikidata has to explain really rich relationships between vague entities. But it is not simple to understand or even to parse and process in meaningful ways.
There’s a ton of detail in the very polymorphic data model and context matters, greatly.
It is entirely too early in the day to be needing my #Wikidata dictionary to parse this documentation:
“A Snak provides some kind of information about a specific Property of a given Entity. Currently, there are three kinds of Snaks: value, somevalue or novalue. A value snak represents a specific value for the property, which novalue and somevalue only express that there is no, or respectively some unknown, value.”
https://doc.wikimedia.org/Wikibase/master/php/docs_topics_json.html#json_snaks
Never mind the fact there are three separate type fields at play here: snaktype, datatype, and type. The “somevalue” type is really doing a number on me.
Wir freuen uns heute auf den Werkstattbericht von Yann LeGall im Rahmen unserer Online-Reihe Digitale Provenienzforschung in Universitätssammlungen mit dem Thema:
"Significant event: Looting": Wikidata-Modelle zu kolonialer Plünderung und afrikanischem Kulturerbe
HEUTE 04.06.2513:00-14:00 Uhr
https://hu-berlin.zoom-x.de/j/65594132767
Weitere Infos: https://sammlungen.io/termine/digitale-provenienzforschung-in-universitaetssammlungen-werkstattberichte-im-sommersemester-2025/yann-legall
#ProvenanceResearch #SODaZentrum #Kolonialismus #Kulturerbe #Wikidata
Wikidata Qrank, Listful Thinking and Captain America's 3rd outing, here is what happened around #Wikidata over the past week!
https://www.wikidata.org/wiki/Wikidata:Status_updates/2025_06_02
Many of them are lacking contact information, so there are a plenty of value you could add here by improving #Wikidata.
https://www.wikidata.org/wiki/Wikidata:WikiProject_Govdirectory/Philippines
#collaboration #Philippines
4/5
Of course, there are lots more to add. If you want to help out, check out the project page on #Wikidata here:
https://www.wikidata.org/wiki/Wikidata:WikiProject_Govdirectory/Uruguay
#collaboration #Uruguay
2/5
Done mapping all 10 #barangays of Hadji Muhtamad, Basilan, #Philippines in #OpenStreetMap, creating their #Wikidata items, and linking the two with each other.
Wanna play around? Here is the Overpass Turbo query: https://overpass-turbo.eu/s/25fA
And here is the Wikidata Query Service (#WDQS) query: https://w.wiki/ELwH
Previously: https://en.osm.town/@seav/114438447195551150
I built a new tool! Join us later at the #Wikidata and Sister Projects to see it in action.
https://www.wikidata.org/wiki/Event:Wikidata_and_Sister_Projects#Sessions
@maxlath a présenté Inventaire (en français) lors des @jdll 2025, la semaine dernière.
Et grâce a leur superbe organisation (un grand merci à elleux) tout le monde peut désormais en profiter :
Outiller les bibliothécaires amateur·ice·s, décentralisation et mutualisation de données
https://videos-libr.es/w/tUqfzLrhgQ6UED63n2WEZ9/
Slides de la présentation : https://presentations.inventaire.io/jdll-2025/
The Stonehaven area has 4 category A listed buildings on #wikidata. Stonehaven Tolbooth has a #wikipedia article.
https://en.wikipedia.org/wiki/Stonehaven_Tolbooth
WikidataStories deadline extended to June 13!
Thanks for sharing diverse projects so far. One extra week to submit your Wikidata-powered work & join a global showcase: https://www.wikidata.org/wiki/Wikidata:Impact_stories
Finally exploring @inventaire for real. So awesome!
https://inventaire.io/users/tiagolubiana
Beautiful demonstration of the power of #wikidata
@dmontagne
Plusieurs cas :
- la personne est créée dans #wikidata et matche automatiquement
- la personne est créée mais il y a ambiguïté : on peut vérifier avec ses identifiants Isni, BNF, sudoc...
- la personne n'est pas créée : elle peut l'être lors de l'import des données.
Avant d'importer, on peut genrer en travaillant sur la base prénoms d'#OpenRefine et en affinant manuellement.
Voici enfin le schéma d'import dans #wikidata avec les champs, propriétés et déclarations.
@dmontagne présente les origines d'#OpenRefine, ses avantages et l'enrichissement des données dans #wikidata sur les #JO2024.
Passage à la démo à partir du prix de #poésie Roger Kowalski, un des plus anciens prix littéraires en France qui est #lyonnais
38 données à importer, nettoyer avec les filtres et différentes fonctions d'édition : très intuitif !
Elle fait ensuite correspondre (réconcilier) les données avec #wikidata
Hey friends who use Wikidata! I have a Wikidata Query for you:
Would you also like to have intervener added as a property?
@macgraveur @CharlesNepote
moi j'utilise wikibase.cloud pour la gestion des photos de famille
https://daieuxetdailleurs.wikibase.cloud/wiki/Main_Page
n'ayant pas réussi à y connecter OpenRefine, je n'ai pas envisager d'y injecter plus de contenus "Individus" dedans pour l'instant. Par contre j'adore rajouter des infos biographiques / prosopo dans #Wikidata