Ni Le 14 octobre 2014 14:38, Christian Quest <cqu...@openstreetmap.fr> a écrit :
> Pour moi pas de relation, *:wikipedia possible et *:wikidata préféré. > Ni l'un ni l'autre. Juste - "wikipedia=code-langue:Article" (pour la langue par défaut, généralement ça suffit pour trouver les infos Wikidata associées via ses liens interlangue pour Wikipédia, il n'est pas utile alors de multiplier les liens vers les autres éditions linguistiques) - "wikidata=Qnnn". Avantage: stabilité en cas de renommage/fusion, et Wikidata peut gérer les ancres dans les articles liés si nécessaire, ou bien référencer un lien de redirection vers une ancre d'un autre article qui a été fusionné localement dans Wikipédia sans avoir à mettre à jour Wikidata qui contient le no, d'article actuel. Inconvénient, cela demande plus de contrôle, on n'est pas à l'abri d'une faute de frappe sur un chiffre et la seule façon de la vor c'est consulter la fiche Wikidata et aller chercher son nom descriptif (s'il est disponible) ou des liens Wikipédia dedans; sinon des liens Commons (pages de galeries) sinon des liens de catégories. Les tags "*:wikipedia"=* n'existent pas, et "*:wikidata"=* non plus. En revanche on a bien des "wikipedia:*"=* (avec un code langue Wikimédia en suffixe). Attention car certains codes langue wikimédia sont non standards, mais certains controbuteurs d'OSM importent ces codes langue tels quels dans les tags "name:*"=* destinés aux traductions/transcriptions de noms ou descritions d'objet. Ces cintrobuteurs OSM font ces imports "foireux" uniquement parce qu'il existe par exemple des éditions linguistiques de Wikipédia utilisant encore ces codes ou des codes de variantes linguistiques non normalisés et spécifiques à Wikipédia dont la migration prend du temps, tels que "simple" ou "roa-rup" alors que "name:*" devrait toujours utiliser des codes BCP47 standards (donc "en" et pas "simple", ou "gsw" et pas "als"; "sr-latn" et pas "sr-el", ou "yue" et pas "zh-yue", ou "nan" et pas "zh-,in-nan"; ou "lzh" et pas "zh-classical"...). Nombreux sont ceux qui croient () tord) que les codes wiki des éditions linguistiques d'un projet Wikimédia sont des codes standards et ne font pas la distinction (alors que la distinction est en revanche demandée dans les traductions présentées dans le Wiktionnaire, en y utiisant les codes BCP47 standards...) Et la plupart confondent les codes BCP47 avec les codes ISO639 (alors que tous les codes ISO sont instables, ambigus, parfois obsolètes/dépréciés, voire même interdits dans BCP47, ou d'usage privé purement local au projet wiki, selon ses propres conventions, et non destinés à être interopérables d'une base de données à l'autre ou d'un site web à un autre) au carrément de format invalide pour BCP47 (exemple "roa-tara" pour la variété régionale tarandine de l'italien, qui n'a aucun code dans ISO639 ni dans la base IANA standard pour BCP47 ). Bref dans OSM on peut avoir - "wikipedia = roa-tara:Artcile en Tarandino" mais pas (dans les données de traductions optionnelles) - "wikipedia:roa-tara = Artcile en Tarandino" ni non plus - "name:roa-tara = Toponyme en Tarandino" Pour ce dernier mauvais tag faudra plutôt écrire - "name:it = Toponyme en Tarandino" ou mieux (si c'est diférent de l'italien standard) - "name:it-x-tara = Toponyme en Tarandino"(utilisation conforme de l'extension privée pour BCP47) ou - "alt_name:it = Toponyme en Tarandino" Les mêmes contributeurs parfois oublient de regarder dans quelle langue est réellement écrite la page, et importent aussi des éléments des noms de page qui ne sont là que pour désambiguer les homonymies (ces précisions n'ont pas leur place dans OSM où on utilise des tags séparés si nécessaire et la géolocalisation et la géométrie des objets comme discriminant). De même ils n'hésitent pas à importer des noms vernaculaires comme si c'était les noms officiels, ils importent des abréviations (souvent non homogènes ou encore plus ambigus et parfois aussi les fautes d'orthographe ou mauvais caractères). Enfin certains articles de Wikipédia portent sur des groupes d'objets codés séparément dans OSM (la pertinence des liens Wikipédia n'est pas toujours à 100%; au moins avec Wikidata on relève plus précisement les distinctions d'objets groupés dans le même article Wikipédia... jusqu'à ce que l'article devenu trop gros et indigeste soit restructuré et scindé en plusieurs sujets, par exemple pour séparer les éléments polémiques et présentant les avis et contre-avis dans des pages différentes ou des wikis différents) Notez qu'en cas de renommage d'un article, Wikidata est mis à jour mais la référence Qnnn est conservée. Cependant c'est plus co,pliqué à aller chercher et contrôler (sur Wikipédia les noms d'articles restent descriptifs et assez précis; sauf quand un article a été renommé avec une précision pour lever une ambiguité : Les outils de qualité d'OSM pourraient détecter les liens Wikipédia pointant maintenant sur une page d'homonymie pour trouver le nouveau nom; Wikidata a aussi ses propres outils de veille qualité des liens Wikipédia pointant sur des pages d'homonymies ou de redirection). Osmose pourrait aller chercher des références Wikipédia et proposer de les convertir en ré Wikidata; et pourrait aussi utiliser la base Wikimédia contenant les articles géolocalisés (Wikipédia utilise cette base pour ajouter sur le fond de carte OSM des POIs géoréférencés par l'article. Cela permettrait de proposer des intégrations, éventuellement précatégorisées poru générer quelques tags; à partir d'autres données de Wikidata (impossible de le faire fcilement depuis les articles et difficile à faire en interprétant les données des modèles d'infobox insérées dans les pages). Une autre analyse destinée à l'intégration sur Wikipédia ou Commons (catégories de lieux; ou pages de galeries) pourrait aussi ajouter générer des listes de pages à géolocaliser (par nsertion du modèle de géolocalisationà en affichant la géolocaisation trouvée dans OSM. LA collaboration peut se faire dans les deux sens (pas automatiquement, mais par des listes de proposition à contrôler/affiner. Cela demande de créer des filtres de recherche sur la base OSM (par exemple des requêtes overpass) générant des pages de liste dans un "wikiprojet" avec les liens des articles à créer ou modifier avec quelques données venues d'OSM, et en machant le travail de wikification. Ainsi on trouve dans Wikipédia, Commons, Wikinews des groupes de travail thématique dansun wikiprojet avec des contributeurs actifs pour intégrer/controler/améliorer/préciser/mettre à jour des données présentées dans les articles. Mais de plus en plus on va aller vers l'intégration non pas directement dans les pages Wikipédia, mais dans Wikidata (les pages Wikipédia iront lire Wikidata pour afficher les données par des modèles d'interrogation spécialisés selon le thème). Les utilisateurs participants de ces wikiprojets développent toute sortes de modèles/scripts Lua et gadgets assistants de modification, ils ont souvent les mêmes sources que les particpants OSM sur les mêmes sujets, et un certain nombre d'utilisateurs participent plus ou ,oins parallèlement aux deux projets OSM et Wikipédia pour croiser les infos et dénicher de nouvelles références et données libres. Jusqu'à encore pas si longtemps c'était Commons qui organisait la catégorisation entre les projets Wikimédia (après avoir été longtemps la Wikipédia anglophone), mais on va aller douvement mais surement de plus en plus vers Wikidata. Les possibilités d'intercations entre OSM et Wikimédia sont certainement plus aisées avec Wikidata qu'avec Wikipédia (dont les contenus ne s'organisent pas exactement de la même façon selon les éditions linguistiques, du seul fait qu'il n'est pas possible pour toutes les langues de développer autant de pages wiki que les grosses Wikipédies avec des centaines de millions de locuteurs de leur langue et des dizaines de milliers de contributeurs actifs chaque mois et encore plus de relecteurs qui font des contributions occasionnelles). Sinon au sein même de chaque Wikipédie (et même d'autres projets dont Commons qui est intéressé), il est fortement question de lui adjoindre une base Wikiata locale pour ses propres besoins. Et une première utiliation sera sans doute de faciliter la ,aintenance des catégories, voire même d'en générer le contenu et leur faire adopter diverses présentations avec des listes dynamiques multicritères, et un meilleur support linguistique dans la langue préférée du visiteur, même si le corps des articles (hors appels de modèles) n'est écrit que dans une langue et nécessite des auteurs et traducteurs qu'un robot ne pourra pas remplacer (mais les robots peuvent assister ce travail, notamment avec les outils de traduction en cours de développement et déploiement assez lent, et les améliorations des moteurs de recherche intégrés à MediaWiki, plus neutres et plus exhaustifs que les moteurs de recherche commerciaux meˆme s'ils proposent un filtre de "pertinence" par site).
_______________________________________________ Talk-fr mailing list Talk-fr@openstreetmap.org https://lists.openstreetmap.org/listinfo/talk-fr