Pour les traces divergentes, on peut imaginer des algorithmes qui les éliminent.
*"Quand on a des distributions pas très gaussiennes avec des points aberrants, on utilise le sigma clipping. On fait une première moyenne avec tous les points. Ensuite, tous les points au delà de n fois l'écart-type sont éliminés et on recommence la moyenne. On poursuit le processus de manière itérative jusqu'à convergence.Pour des traces GPS, on pourrait par exemple supprimer toute la trace sur 1 km dès qu'un seul point de la trace est trop éloigné de la trace moyenne. On pourrait aussi ne pas produire de trace moyenne quand la convergence est trop faible."* Encore une fois, tu n'as pas d'information sur la qualité des données entrée. Peux être que sur 200 passage ça pose moins de problèmes mais reste que dans de mauvaises conditions tu auras une mauvaise moyenne. Il faut aussi faire le script 2fois une fois dans le sens AB et une fois dans le sens BA. On peux aussi déduire les sens de circulation et les vitesses moyennes par tronçon. Dans ce cas il faudra définir les écarts moyens pour savoir. On risque aussi de passer à coté pour les voies de vélo sauf si l'on le spécifie dans les métadonnées des trackings lors de l'import et qu'on les isole pour les traitement et pareil pour les voies piétonnes. Une piste cyclable ou une voie piétonne risque de passer à la trappe (sauf si l'on prends en compte la vitesse moyenne totale et les accélérations dans les traces à la limite et encore je suis pas persuadé que ce sera l'idéale. En ville suivant les lieux je vais plus vite en vélo qu'en voiture) *"Concernant les traces GPX qui seraient collées à une base de donnée sous-jacente, j'espère que personne n'en upload vers OSM car ce serait un non-sens. En plus, question licence, ça serait aussi très discutable."* On s'est déjà retrouvé avec des modifications intentionnelles d'une filiale de GOO*** donc on peut s'attendre à avoir des données (intentionnellement ou pas) provenant de GPS sur des téléphones et autre. C'est pour ça qu'il faudrait pourvoir tester cela. Tous comme il faudrait pourvoir tester un way complètement identique à des données IGN et autres référentiels. Le 29 septembre 2014 11:22, Eric Sibert <courr...@eric.sibert.fr> a écrit : > Pour les traces divergentes, on peut imaginer des algorithmes qui les > éliminent. > > Quand on a des distributions pas très gaussiennes avec des points > aberrants, on utilise le sigma clipping. On fait une première moyenne avec > tous les points. Ensuite, tous les points au delà de n fois l'écart-type > sont éliminés et on recommence la moyenne. On poursuit le processus de > manière itérative jusqu'à convergence. > > Pour des traces GPS, on pourrait par exemple supprimer toute la trace sur > 1 km dès qu'un seul point de la trace est trop éloigné de la trace moyenne. > On pourrait aussi ne pas produire de trace moyenne quand la convergence est > trop faible. > > D'une manière générale, je pense que l'accumulation de traces GPS peut > apporter un plus. Le gain n'est pas le même entre la première trace et la > millième. On se retrouve sur les histoires de big data. Chaque donnée a peu > de sens mais l'ensemble peut en avoir un, à condition d'avoir les outils > qui vont bien avec. > > Concernant les traces GPX qui seraient collées à une base de donnée > sous-jacente, j'espère que personne n'en upload vers OSM car ce serait un > non-sens. En plus, question licence, ça serait aussi très discutable. > > > > Eric > > > _______________________________________________ > Talk-fr mailing list > Talk-fr@openstreetmap.org > https://lists.openstreetmap.org/listinfo/talk-fr >
_______________________________________________ Talk-fr mailing list Talk-fr@openstreetmap.org https://lists.openstreetmap.org/listinfo/talk-fr