Re-salut à tous !

Vincent Lefevre a écrit :
Avec une implémentation sur une machine à mémoire bornée, oui. Mais
si tu considères le problème au niveau théorique, par exemple un algo
dont l'entrée peut potentiellement avoir une infinité de valeurs
(genre un réel entre 0 et 1 avec n décimales et on fait tendre n vers
l'infini), alors tu peux obtenir une probabilité de 1 que l'algo
fonctionne, bien qu'il échoue sur des valeurs particulières.

OK, d'accord.

Cela dit, un algorithme peut être démontré par théorème et ne pas fonctionner sur un ordinateur, du fait de la perte des propriétés algébriques.

Un petit exemple... exp(Pi*sqrt(163)). Quelle était la probabilité
d'obtenir un nombre aussi proche d'un entier?

Sur les réels : 0. Maintenant, sur les flottants, ensemble fini, c'est une autre affaire.


Tu as dû mal comprendre (par "aussi proche", j'entends à une distance <=).

Bon, en effet, j'ai mal compris. J'en appel à la clémence du jury !

Cela dit, j'ai réussit à formaliser ce qui me chiffonne, comme quoi il est toujours bon de s'arrêter pour réfléchir un peu.

Bon, à la base, je suis bien d'accord qu'il est préférable d'avoir une erreur déterministe que probabiliste (comme quoi je ne suis pas aussi borné que ça). Cependant, il y a deux choses qui me gène dans l'arithmétique des intervalles : d'abord, le phénomène de dispersion invite à l'utiliser avec précaution. Ensuite, je suis intéressé pour connaître l'erreur sur mon calcul, plutôt qu'un majorant ou des bornes pessimistes. Cela dit, dans une conception intégrant dès le départ l'arithmétique des intervalles, cette méthodes à de bonnes réussites.

Toutefois, à l'heure actuelle, la seule méthode qui cherche à déterminer l'erreur que l'on effectue sur le calcul, à ma connaissance, est la méthode CESTAC. Son inconvénient est de quitter le cadre déterministe. Toutefois, en se référant à la pratique et à

J.-M. Chesneaux et J. Vignes, Sur la robustesse de la méthode CESTAC, C.R.A.S., Paris, t. 307, série 1, 1988, pp. 855-860

l'estimation du nombre de chiffres significatifs exacts fourni par CESTAC n'est pas mis en défaut si on la considère exacte à un chiffre prés. Toutefois, elle nécessite le contrôle dynamique de certaines opérations numériques.

Par contre, c'est une formidable méthode de diagnostique, de plus relativement simple à mettre en œuvre (en comparaison avec l'arithmétique des intervalles). De plus, elle permet de déterminer le test d'arrêt -- statistiquement -- optimal pour les algorithmes itératifs, ainsi que le pas -- statistiquement -- optimal pour les algorithmes approchés et est, à ma connaissance, la seule à permettre cela. Elle permet aussi d'améliorer sensiblement la précision des algorithmes en améliorant le contrôle des opérations de branchements conditionnels mais cela l'arithmétique des intervalles le permet aussi.

Maintenant, pour en revenir au cas particulier d'un tableur, je me demande encore ce qu'est une utilisation traditionnelle d'un tel outils mais je présume que l'utilisation de l'une ou l'autre des arithmétiques donnera des résultats semblables. Justement, soyons pragmatique : es-tu intéressé pour faire une évaluation de la précision de calc dans le cadre d'une utilisation classique, ce pour voir si l'intégration des méthodes de validation en vaut la peine ?

Maintenant, je ne devrais sans doute pas le noyer dans la masse de ce message mais je le fais toutefois : mon rapport de stage porte notamment sur la validation numérique. Est-ce qu'il y a, parmi les lecteurs de ce fil de discussion, des personnes intéressées pour que je leurs fournissent un résumé de ce rapport ?

        À bientôt.

                                        Yoann LE BARS,
                                        alias Le Farfadet Spatial

---------------------------------------------------------------------
To unsubscribe, e-mail: [EMAIL PROTECTED]
For additional commands, e-mail: [EMAIL PROTECTED]



Reply via email to