Salut à tous !

Pierre MOURIAUX a écrit :
Sur users c'est peut-être un peu HS car ça s'écarte du côté renseignement pratique, vaudrait peut-être mieux sur discuss (je met en copie d'ailleurs).

Mon problème, c'est que je ne suis inscrit à discuss qu'en mode « digest, » donc cela risque de devenir un peu difficile à suivre pour moi... De plus, je crois que dev est plus appropriée en l'occurrence.


Si vous pouviez faire un récapitulatif du débat, avec des références d'ouvrages ou articles accessibles sur Internet ce serait bien, et puis des exemples.

Un résumé rapide est : un ordinateur fait des calculs étonnés. Pour un résumé plus long, je vais essayer d'y réfléchir. En gros, il y a un gars qui s'est rendu compte qu'il avait des résultats imprécis, des gens compétents ont cherché à l'aider et je n'ai pas réussit à tenir ma grande g***e, ce qui a lancé un débat super tordu entre moi et chercheur qui s'y connaît en validation numérique vu que c'est son sujet.


Pour la notion de précision, l'utilisateur infra que je suis mais qui est allé à l'école et a consulté un peu les normes, confirme que l'idée de précision d'une valeur numérique est liée au nombre de décimales. Ce qui se passe en interne dans la machine est peut-être autre chose mais pour l'expression des résultats on n'y coupe pas, c'est normatif.

Toute les architectures sur lesquelles fonctionnent OpenOffice.org utilisent la norme IEE 754. Donc, si tu as lu cette norme, tu as une bonne idée de comment les choses se passent en interne.


Le problème est que la précision utilisée n'est pas directement corrélée avec la propagation d'erreur, ce pourquoi la précision arbitraire n'est pas la panacée. Maintenant, on peu sans doute attendre un peu avant d'aborder ce problème.

J'ai cru comprendre que ces problèmes touchent OOo mais aussi ses concurrents, donc en fait tous les utilisateurs de tableurs seraient concernés? Il existe de nombreuses applications professionnelles basées sur Excel (espérons que pour OOo ça viendra), surtout parce que ce logiciel est reconnu comme fiable, est-ce bien le cas? à lire vos propos je commence à en douter.

À ma connaissance, aucun tableur n'inclus de validation numérique et certainement pas Excel. Or, un ordinateur calcul faux (pour faire simple). Donc, potentiellement, tout logiciel s'appuyant sur Excel peut être sujet aux instabilités numériques.


En fait, c'est très global : tout calcul effectué par un ordinateur est potentiellement faux, qu'il soit réalisé par un tableur ou par un autre moyen.

Quant à l'aspect probabiliste, je crois voir deux choses vraiment différentes:

-- une valeur est donnée avec une précision et on a telle probabilité pour qu'elle soit comprise dans une fourchette (j'évite intervalle). C'est la notion commune d'erreur, de calcul d'erreur, propagation des erreurs... éventuellement le calcul peut affecter cette précision par des problèmes d'arrondi ou plus techniques

Si je te suis bien, tu parles ici de l'erreur physique, plutôt que de l'erreur intrinsèque au calcul sur des flottants.


-- ici vous parlez de cas où le calcul informatique introduit une certaine probabilité pour que la valeur soit fausse, mais vraiment fausse de chez pas bon du tout. C'est totalement différent et pour des applications techniques ou scientifiques ça peut être vraiment important (du genre pilote automatique qui vous fait arriver sur la piste de Roissy avec une précision de 0,1 m mais avec une probabilité non nulle de s'écraser sur la tour de contrôle ou même sur le château de Versailles.

Rapidement, le nœud du problème est que l'ordinateur n'effectue pas ses calculs sur l'ensemble des réels mais sur un sous ensemble, celui des nombres à virgules flottantes. Ce sous-ensemble est fini (il n'y a qu'un nombre limité de flottants car l'ordinateur est une machine finie), ce qui entraîne la perte d'une bonne partie des propriétés algébriques. Il ne s'agit donc que d'une approximation très imprécise de l'ensemble des réels, d'où de nombreux problèmes d'instabilités numériques, qui peu en effet entraîner des résultats « faux de chez pas bon du tout. »


Dans un registre plus philosophique, que devient la théorie du chaos qui est essentiellement basée sur des calculs par ordinateur, que la sensibilité aux conditions initiales avec des dérives numériques introduites par le calculateur? Bon je pense être un peu HS, m'étonnerait qu'on utilise OOo pour ce genre de calculs.

En effet, l'étude des systèmes chaotique sort du cadre d'application d'OpenOffice.org, sauf à la rigueur pour la création des transparents d'une conférence à ce sujet -- et encore, j'aurais plutôt tendance à utiliser LaTeX...


La théorie du chaos ne vient pas exactement du calcul sur ordinateur. À l'origine, elle a été développée dans le cadre de la météorologie, pour rendre compte de phénomènes qui prennent une tournure radicalement différentes avec de toutes petites perturbation sur les conditions initial. Le fameux effet papillons, quoique peu juste, rend bien compte du problème : un simple perturbation de l'ordre de celle produite par le battement d'aile d'un papillon peu faire passer d'un anticyclone à une tempête.

On conçoit bien que, dès l'or, le fait que les calculs sur ordinateurs soient par essence imprécis que leurs utilisations pour étudier de tels systèmes doit être effectuée avec beaucoup de précaution, quand elle n'est pas pour ainsi dire impossible -- ce après quoi vous comprenez que, malgré tous les efforts, la météorologie nationale puisse parfois se tromper.

Pour l'anecdote, on ne sais pas encore si les phénomènes météorologiques sont chaotiques ou tout simplement non déterministes.

        À bientôt.

                                        Yoann LE BARS,
                                        alias Le Farfadet Spatial

---------------------------------------------------------------------
To unsubscribe, e-mail: [EMAIL PROTECTED]
For additional commands, e-mail: [EMAIL PROTECTED]



Répondre à