För en månad sedan var jag tillsammans med Albin Larsson, Andrew Lih och Nicolas Vigneron med i University of New Brunswicks Data Sprint, som var en “gren” i deras Data Challenge. Vi kallade laget Qutedata, en hommage till Q-numren på Wikidata och Wikimedia Cuteness Association.
Datasprintet bestod av två delar, en frågedel och en berättardel. I frågedelen ställdes 21 frågor som skulle besvaras med en Wikidata query. Själva svaret var egentligen ointressant, det intressanta var hur frågan var skriven och det som lämnades in var en länk till frågan. Berättardelen skulle ha en serie sammahängande frågor, där vi fokuserade på folk i New Brunswick (presentation). Vardera del stod för 50% av resultatet.
Det hela gick tydligen bra för vårt lag vann!
Igår kom äntligen pressreleasen som meddelade vinnarna. Priset som kallades NBIF Innovative Data Award bestod av 1 250 kanadensiska dollar som vi skänker direkt till Wikimedia Canada. Förhoppningsvis kan detta leda till fler bra samarbeten för dem, kanske med universitetet till och med.
As part of the 30 lexic-o-days 2021, April 5-11 I am hosting a Climate lexeme week. During this thematic week the focus is to improve the lexemes derived from the Glossary of climate change. This is not a competition where points are given, instead this is a collaborative week when we help each other to improve these lexemes as much as we can.
In this 17-minute video, I explain the idea and what it is all about.
One of my projects for 2020 was to create one new Wikidata item – of a new type – each week. Just doing one per week would be easy, in fact, it looks like I created 206 items during 2020. The challenge was to have them be totally different, only one human, only one film, and so on (as defined by the property Instance of).
I set this challenge to myself mostly to get to know more of the different fields within Wikidata. Each field have it’s own way of modeling and some of them are easier than others, and some of them you encounter more than others. So not to get stuck in my usual tracks this seemed like a good idea.
The way I picked the topic each varied, and turned out to follow a few themes. A few of them are related to current events, another batch are related to what I was editing on the wikis anyway and a few that I just stumbled upon that needed to be fixed. A couple of times I got tips on what to create, and others still was very hard to figure out.
Tweets and edits
I tweeted all my edits often with some more comments under the hashtag #52wikidataweeks, but for your convenience, here they are along with some stats:
Besides these edits on Wikidata proper, there have been assisting edits to Wikipedia and also media uploaded to Wikimedia Commons. In some cases it also led to editing OpenStreetMap. The number of edits say very little. Some tools that I used grouped the edits (like week 34), but at least they show that anyone quite quickly can reach high edit numbers and “unlock” tools that require access rights given only to users with some edits under the belt.
Summary
This was a really fun challenge, and also quite hard. The hardest part was however not to model the items, because even for the topics I knew very little about either there are examples to look at or the very active community are helpful. No, the hardest part was to come up with items of different types that both had good sources and were notable. Some weeks (three if I remember correctly) I was a few days late, mostly because of this. If I couldn’t come up with something inspiring it was harder to get started.
As a whole though, I believe I reached my goal. I have definitely widened my knowledge of Wikidata. I also feel quite confident that I could edit more or less any topic, given decent amount of time of course. I can recommend anyone interested in Wikidata to try edit various fields. Not only do you learn about new ontologies, modeling and properties, you also get to meet editors that you might not come across otherwise. Sure, you don’t need to go on 52 week spree for that, but then again, why not?
Det hela är en laginsats med många inblandade. Och även om jag inte kan ta åt mig äran för att ha skrivit koden själv (den äran går till André Costa) blir jag extra glad eftersom att jag i somras som volontär drev projektet i en andra upplaga och återanvände koden för Wikimanias menyer.
För ett par år sedan gjorde vi i Wikimedia Sverige en kul grej med Wikidata och mat. Vi fick ett antal detaljerade menyer inför matfestivalen Smaka på Stockholm och kopplade innehållen på dem med Wikidata. Dessutom körde vi en tävling för att översätta dessa matobjekt till många olika språk och ta bilder på maträtterna. Resultatet blev interaktiva menyer där man enkelt kunde växla språk på dem. Nu när det är dags för Wikimania i Stockholm tänkte vi använda oss av samma sätt för att tillgängliggöra konferensmenyn till deltagarna som kommer från hela världen. Om du vill hjälpa till att översätta eller fotografera mat hittar du tävlingssidan här. Tävlingen pågår 16 juli – 11 augusti.