Pour les traces divergentes, on peut imaginer des algorithmes qui les
éliminent.



*"Quand on a des distributions pas très gaussiennes avec des points
aberrants, on utilise le sigma clipping. On fait une première moyenne avec
tous les points. Ensuite, tous les points au delà de n fois l'écart-type
sont éliminés et on recommence la moyenne. On poursuit le processus de
manière itérative jusqu'à convergence.Pour des traces GPS, on pourrait par
exemple supprimer toute la trace sur 1 km dès qu'un seul point de la trace
est trop éloigné de la trace moyenne. On pourrait aussi ne pas produire de
trace moyenne quand la convergence est trop faible."*

Encore une fois, tu n'as pas d'information sur la qualité des données
entrée. Peux être que sur 200 passage ça pose moins de problèmes mais reste
que dans de mauvaises conditions tu auras une mauvaise moyenne. Il faut
aussi faire le script 2fois une fois dans le sens AB et une fois dans le
sens BA. On peux aussi déduire les sens de circulation et les vitesses
moyennes par tronçon. Dans ce cas il faudra définir les écarts moyens pour
savoir.

On risque aussi de passer à coté pour les voies de vélo sauf si l'on le
spécifie dans les métadonnées des trackings lors de l'import et qu'on les
isole pour les traitement et pareil pour les voies piétonnes. Une piste
cyclable ou une voie piétonne risque de passer à la trappe (sauf si l'on
prends en compte la vitesse moyenne totale et les accélérations dans les
traces à la limite et encore je suis pas persuadé que ce sera l'idéale. En
ville suivant les lieux je vais plus vite en vélo qu'en voiture)

*"Concernant les traces GPX qui seraient collées à une base de donnée
sous-jacente, j'espère que personne n'en upload vers OSM car ce serait un
non-sens. En plus, question licence, ça serait aussi très discutable."*

On s'est déjà retrouvé avec des modifications intentionnelles d'une filiale
de GOO*** donc on peut s'attendre à avoir des données (intentionnellement
ou pas) provenant de GPS sur des téléphones et autre.

C'est pour ça qu'il faudrait pourvoir tester cela. Tous comme il faudrait
pourvoir tester un way complètement identique à des données IGN et autres
référentiels.

Le 29 septembre 2014 11:22, Eric Sibert <courr...@eric.sibert.fr> a écrit :

> Pour les traces divergentes, on peut imaginer des algorithmes qui les
> éliminent.
>
> Quand on a des distributions pas très gaussiennes avec des points
> aberrants, on utilise le sigma clipping. On fait une première moyenne avec
> tous les points. Ensuite, tous les points au delà de n fois l'écart-type
> sont éliminés et on recommence la moyenne. On poursuit le processus de
> manière itérative jusqu'à convergence.
>
> Pour des traces GPS, on pourrait par exemple supprimer toute la trace sur
> 1 km dès qu'un seul point de la trace est trop éloigné de la trace moyenne.
> On pourrait aussi ne pas produire de trace moyenne quand la convergence est
> trop faible.
>
> D'une manière générale, je pense que l'accumulation de traces GPS peut
> apporter un plus. Le gain n'est pas le même entre la première trace et la
> millième. On se retrouve sur les histoires de big data. Chaque donnée a peu
> de sens mais l'ensemble peut en avoir un, à condition d'avoir les outils
> qui vont bien avec.
>
> Concernant les traces GPX qui seraient collées à une base de donnée
> sous-jacente, j'espère que personne n'en upload vers OSM car ce serait un
> non-sens. En plus, question licence, ça serait aussi très discutable.
>
>
>
> Eric
>
>
> _______________________________________________
> Talk-fr mailing list
> Talk-fr@openstreetmap.org
> https://lists.openstreetmap.org/listinfo/talk-fr
>
_______________________________________________
Talk-fr mailing list
Talk-fr@openstreetmap.org
https://lists.openstreetmap.org/listinfo/talk-fr

Répondre à