-
Refonte du blog avec Wagtail
Au début je voulais juste refaire la page d’accueil du site. Un projet simple et rapide : une page principale, une autre pour les mentions légales et éventuellement une petite bio, le tout géré avec Pélican, un générateur de site statique.
Et puis pour le boulot j'ai découvert Wagtail, un moteur de CMS pour Django et je l'ai trouvé cool
[944d7a] , du coup me suis dit que j'allais l'utiliser pour migrer aussi le blog, parce que j'en avais un peu marre de Wordpress, pour lequel au fil des mises à jour certaines extensions avaient cessé de fonctionner correctement (notamment celle gérant les notes de bas de page, ou celle permettant d’intégrer des extraits de code). Ça a pris …Croiser des données avec OpenRefine
On vient de me poser une question intéressante sur Twitter :
Question pour les experts Wikidata qui causent SPARQL : vous pourriez m'aider à faire une requête du genre « villes des États-Unis entre 100 000 et 600 000 habitants situées dans un comté ayant majoritairement voté pour Clinton en 2016 » ?
— Guillaume Paumier (@gpaumier) July 19, 2020Le problème ici est que les données électorales détaillées ne sont pas sur Wikidata (et à mon avis n’y ont pas leur place, elles seraient mieux sur Commons sous forme de données tabulaires).
En revanche, il est possible d’extraire via une requête SPARQL la liste des villes des États-Unis entre 100 000 et 600 000 habitants, puis de la …
Convent(ion)s
J’ai eu la chance cette année de participer à quatre événements internationaux du mouvement Wikimédia : le hackathon européen à Vienne du 19 au 21 mai, Wikimania 2017 à Montréal du 9 au 13 août, la Wikiconvention francophone à Strasbourg du 19 au 21 octobre et la WikidataCon à Berlin les 28 et 29 octobre. Si je ne me trompe pas, je n’ai jamais participé à autant la même année.
À part pour la Wikiconvention, j’ai assisté à tous ces événements sur mon temps bénévole, avec une bourse de Wikimédia France pour le hackathon, une (partielle) de Wikimedia Foundation pour Wikimania, et une de Wikimedia Deutschland pour la WikidataCon : merci à ces organisations pour leur soutien.
Participer à de …
Œuvres emblématiques
À la base, c’était un fil reddit sur les œuvres les plus emblématiques de chaque pays d’Europe. Une chouette idée : pour chaque pays, déterminer quelle œuvre est la plus représentative et la placer sur un fond de carte
[7e656f] . On y trouve à peu près tout ce à quoi on s’attend : La Joconde, Le Cri, La Jeune Fille à la perle, etc. C’est extrêmement cool.Bon anniversaire, Wikidata !
Wikidata a quatre ans aujourd’hui, et il me semble que c’est le bon moment pour faire un petit retour sur mon expérience avec ce projet
[7ab359] .Wikidata est un projet qui m’intéresse vivement depuis bien longtemps avant sa création effective. Si j’avais lu le nom ici et là sur le bistro de Wikipédia depuis que j’ai commencé à contribuer en 2005, la première fois qu’il a retenu mon attention, pour autant que je m’en souvienne, est cette discussion en novembre 2006
[43ffac] : un dépôt commun pour les données, fonctionnant de la même façon que Commons, c’était exactement ce qui manquait à Wikipédia !Et je n’étais apparemment pas le seul à avoir cet avis : c’était à l’époque …
Sunday Query : où meurent les Bretons ?
Cette #SundayQuery part d’une question de @belett sur Twitter : comment afficher des points de différentes couleurs sur une carte générée sur le point d’accès SPARQL de Wikidata ?
Sunday Query : utiliser SPARQL et Python pour corriger des coquilles sur Wikidata
À mon tour de faire une #SundayQuery! Comme Harmonia Amanda l’a dit dans son propre billet, j’envisageais de faire un article expliquant comment créer un script Python permettant de corriger les résultats de sa requête.. Finalement, j’ai préféré en faire un autre, au fonctionnement similaire mais plus court et plus simple à comprendre. Le script pour Harmonia est cependant disponible en ligne ici.
Jeudi, j’ai publié un article au sujet des batailles du Moyen Âge, et depuis, j’ai commencé à corriger les éléments correspondants sur Wikidata
L’une des corrections les plus répétitives était la capitalisation des libellés en français : comme ils ont été importés de Wikipédia, ils ont une majuscule inutile au début ( « Bataille …
De la classification sur Wikidata
Quand on classe des trucs, on a grosso-modo deux approches possibles : des cases hyper-pointues allant aussi loin que possible dans le détail, ou au contraire des cases très larges en laissant à l’utilisa⋅teur⋅trice le soin de croiser pour trouver ce qui l’intéresse. Wikimedia Commons a grosso-modo choisi la première approche, avec des catégories comme « [[Category:Castles in Andalusia at night]]
[f9d87b] », alors que Wikidata a plutôt choisi l’approche inverse, avec un grand nombre de propriétés que l’on peut croiser par le biais de requêtes SPARQL (entre autres), ce qui donne pour l’Alhambra de Grenade : « Nature de l’élément (P31) → château fort (Q23413) » et « Pays (P17) → Espagne (Q29) » et tout un tas …Prototypage rapide d’entités Wikidata
Wikidata est un projet puissant, mais pour pouvoir en profiter, il faut le remplir. Bien sûr, il est possible d’ajouter des données à la main directement sur le site : ça fonctionne sans souci mais que faire quand on a plusieurs dizaines d’entrées ? Plusieurs centaines ? Avec le temps, quelques outils ont vu le jour permettant d’automatiser un peu ce processus, comme l’indispensable QuickStatements ; là encore, il faut bien lui fournir les données qu’il mange et tout ceci est parfois bien fastidieux. Est-ce qu’on ne peut pas aller plus loin ?
Ben Whishaw, Broadway, la RADA et Wikidata
Bonjour tout le monde, ici Harmonia Amanda squattant le blog d’Ash_Crow. Il m’a été suggéré de faire un billet de blog pour vous raconter tout ce que je fais en ce moment en rapport avec la RADA (Royal Academy of Dramatic Art) sur Wikidata. Pour m’assurer que personne ne le lira, j’ai donc écrit un truc long, bourré de notes de bas de page et avec même des vrais bouts de SPARQL dedans. Ne me remerciez pas.
0 comments have been posted.