Le Farfadet Spatial a écrit :

...
Une borne d'erreur garantie (i.e. prouvée) est généralement préférable
si on met un minimum d'intelligence derrière pour que cette borne soit
acceptable par l'utilisateur.


Heu... Pourquoi ? D'ailleurs, je suis intéressé pour une réponse détaillé (en privé bien sûr parce que je pense que les autres membres de la liste s'en tamponnent), si tu en as la possibilité.


Inexact, il est vrai que vous êtes dans un petit nuage mais c'est très intéressant!
Par contre faut suivre, et ça c'est pas évident du tout.


Sur users c'est peut-être un peu HS car ça s'écarte du côté renseignement pratique, vaudrait peut-être mieux sur discuss (je met en copie d'ailleurs).

Si vous pouviez faire un récapitulatif du débat, avec des références d'ouvrages ou articles accessibles sur Internet ce serait bien, et puis des exemples.

Pour la notion de précision, l'utilisateur infra que je suis mais qui est allé à l'école et a consulté un peu les normes, confirme que l'idée de précision d'une valeur numérique est liée au nombre de décimales. Ce qui se passe en interne dans la machine est peut-être autre chose mais pour l'expression des résultats on n'y coupe pas, c'est normatif.

J'ai cru comprendre que ces problèmes touchent OOo mais aussi ses concurrents, donc en fait tous les utilisateurs de tableurs seraient concernés? Il existe de nombreuses applications professionnelles basées sur Excel (espérons que pour OOo ça viendra), surtout parce que ce logiciel est reconnu comme fiable, est-ce bien le cas? à lire vos propos je commence à en douter.

Quant à l'aspect probabiliste, je crois voir deux choses vraiment différentes:

-- une valeur est donnée avec une précision et on a telle probabilité pour qu'elle soit comprise dans une fourchette (j'évite intervalle). C'est la notion commune d'erreur, de calcul d'erreur, propagation des erreurs... éventuellement le calcul peut affecter cette précision par des problèmes d'arrondi ou plus techniques

-- ici vous parlez de cas où le calcul informatique introduit une certaine probabilité pour que la valeur soit fausse, mais vraiment fausse de chez pas bon du tout. C'est totalement différent et pour des applications techniques ou scientifiques ça peut être vraiment important (du genre pilote automatique qui vous fait arriver sur la piste de Roissy avec une précision de 0,1 m mais avec une probabilité non nulle de s'écraser sur la tour de contrôle ou même sur le château de Versailles.


Dans un registre plus philosophique, que devient la théorie du chaos qui est essentiellement basée sur des calculs par ordinateur, que la sensibilité aux conditions initiales avec des dérives numériques introduites par le calculateur? Bon je pense être un peu HS, m'étonnerait qu'on utilise OOo pour ce genre de calculs.


Cordialement

PM


--------------------------------------------------------------------- To unsubscribe, e-mail: [EMAIL PROTECTED] For additional commands, e-mail: [EMAIL PROTECTED]



Répondre à