Le 03/10/2014 14:41, Christophe Merlet a écrit :
Le 03/10/2014 14:30, Frédéric Rodrigo a écrit :
Le 03/10/2014 14:20, Christophe Merlet a écrit :
Le 03/10/2014 13:44, Frédéric Rodrigo a écrit :
Avec les ref insee c'est quand même bien mieux.

Mais je ne suis pas sûr que la qualité des données soit pour l'instant
suffisante. Tu peux remonté les problèmes et/ou obtenir des
éclaircissements ?

- certaines traduction qui contienne des virgules, des slashs ou des
tirets quadratins mal utilisé je pense :
      Sent Perdon – Isac : Saint-Pardoux-Isaac
      c'est la traduction des noms des communes, ou des noms des
villages ?
- le texte entre parenthèse doit probablement être ignoré (à
confirmer ?)
- Les-Artigues-de-Lussac : Les Artigues-de-Lussac, des fois il y a des
tirets, mais dans la plus part des cas ils n'y sont pas.
- L'article n'est pas systématiquement passé entre parenthèse, c'est
volontaire ?
- le "détrompeur" est parfois présent, parfois absent :
      Castèthnau dau Medòc : Castelnau-de-Médoc
      Castra : Castres-Gironde
- les capitales sur les article ne sont pas toujours homogènes:
      Senta Fe La Granda : Sainte-Foy-la-Grande
      Sent Feliç de font Cauda : Saint-Félix-de-Foncaude


Je suis à la recherche d'une **solution technique** pour mettre à jour
des tags depuis un fichier CSV, pas d'un audit qualité.

Techniquement cela ne pas de problème, en tout cas pour moi. Faire un
script et intégrer les données dans OSM est l'affaire d'une-demi heure.

Je n'en ai jamais douté !
Et je constate que tu ne donne toujours aucune piste pour permettre à
quelqu'un d'autre de travailler efficacement sur cet import.

1. Filtrer les données, la partie qualité qui peut prendre du temps, si les données ne sont pas de bonne qualité. Pour Osmose, quand les données sont de trop mauvaise facture, je ne fais purement et simplement rien. Ce n'est pas les jeux de données ouvert à intégrer à OSM qu'il manque. 2. Extraction des ??? (je ne sais tjs pas si ce sont les traductions des noms de communes ou de villages ou un peu des deux) de OSM avec overpass-api. 3. Un petit script ruby écrit sur le pouce qui édite les tags osm dépuis un hash chargé depuis le CSV.
4. Upload avec JOSM.

Rien n’empêche d'importer les communes qui ne pose aucun problèmes, et
ça en fait des milliers, au lieu de reporter depuis plusieurs mois cet
import. Surtout que les problèmes que tu soulèves sont triviaux et se
corrigent par un simple regexp.

Je pense qu'il vaut quand même mieux corriger les données à la source et
importer dans OSM les mêmes données que celles publiées par Lo Congrès.

Ce serait la première fois que l'on attends d'une source potentiel de
données qu'elle se mette au standard qualité d'OSM au lieu d'effectuer
nous-même ce travail. (ROUTE 500, Cadastre, FANTOIR, ...)

Dans les exemples que tu cites, le processus est vraiment à minima de un an pour avoir une mise à jour. Là il me semble que ça soit la cas. Il est toujours préférable d'améliorer la source, mais c'est souvent impraticable.


La question est la même que pour la mise à jour des populations de
communes qui aurait du idéalement être fait dés la publication par
l'INSEE des chiffres officiels de 2014.

Idem. Je pense que personne ne le fait parce que l'intérêt est assez
faible.

Ceux qui y ont un intérêt ne le font pas car il ne savent pas
automatiser une tâche qui nécessite plus de 72000 éditions, et ceux qui
savent automatiser la tache ne le font pas parce qu'ils n'y voit aucun
intérêt. Ce n'est pas très productif.

Et depuis quand avoir la population à jour dans OSM serait sans intérêt ?

        Librement,



_______________________________________________
dev-fr mailing list
dev-fr@openstreetmap.org
https://lists.openstreetmap.org/listinfo/dev-fr

Répondre à