Comment se transmet l’imprécision à travers les modèles ?

On appelle calculs d’erreur les méthodes pour trouver l’erreur sur une fonction de ce qui est mesuré. Nous étudions ici le calcul d’erreur d’un point de vue mathématique et du point de vue du lien avec l’expérimentation. Gauss fut le premier à proposer un calcul d’erreur au début du 19ème siècle. Ce calcul possède une propriété de cohérence qui le rend supérieur dans bien des questions à d’autres formulations qui furent tentées par la suite.

Examinons le problème plus au détail. Les objectifs de l’estimation de l’erreur peuvent être de diverses natures : a) Soit on s’intéresse à une situation spécifiée et on cherche un moyen pour avoir une estimation pessimiste de l’erreur qui permet de s’exprimer en sécurité. On est amené alors à travailler avec des bornes, intervalles ou domaines, et de voir comment ils se transforment au cours des calculs. Cette manière de procéder, idéale théoriquement, est cependant redoutablement compliquée voire impraticable dans beaucoup de cas. Même pour ce qui est des erreurs dues aux représentations des nombres réels en informatique cette approche ne peut être menée que dans des cas très simples. b) Soit on ne désire qu’un ordre de grandeur de l’erreur et on souhaite l’obtenir facilement. C’est souvent le cas pour l’ingénieur. Dans ce contexte un très grand nombre de pratiques existent. Comme elles doivent être simples et rapides, elles ne peuvent pas procéder à un véritable calcul des probabilités qui expliciterait comment la loi de probabilité issue de la mesure se transmet à travers les fonctions du modèle. Ces calculs de « lois images » sont d’ailleurs vite inextricables. Donc elles se contentent d’estimations souvent hybrides, faisant par exemple l’hypothèse que les erreurs de mesure sont gaussiennes et calculant les transmissions d’erreur en linéarisant les fonctions au voisinage de la valeur moyenne. Ceci rend des services mais on ressent un certain malaise finalement car à l’issue du calcul on ne sait plus très bien ce que l’erreur obtenue représente vraiment. c) Enfin on peut chercher le bon langage mathématique pour faire un vrai « développement limité » de l’erreur qui sera asymptotiquement exact si l’erreur est petite. On est alors très proche d’un calcul de sensibilité. Mais il s’agit plus précisément d’un calcul de sensibilité probabiliste, ce point est important dans le cas de modèles non-linéaires.

Le calcul proposé par Gauss relève de l’approche c) mais n’en constitue qu’un aspect, le plus simple, celui relatif aux « variances infinitésimales » dans le cas fini-dimensionnel. Avec ce formalisme élémentaire on ne peut pas considérer des erreurs sur des fonctions ou des objets géométriques tels que des surfaces, ou encore sur des processus aléatoires. Mais les idées de Gauss peuvent être poussées plus loin par un principe d’extension fondé sur la théorie des formes de Dirichlet. On obtient un calcul complet lipschitzien qui se comporte parfaitement par image et par produit et permet une construction facile des notions de base de ce qu’on appelle le calcul de Malliavin, cela se relie aux statistiques par l’intermédiaire de l’information de Fisher. Nous ne faisons ici qu’effleurer cette théorie en renvoyant à des références pour le lecteur qui souhaiterait approfondir.

Nous donnerons néanmoins une conséquence de cette théorie. Elle fournit une explication à la délicate question de la permanence des erreurs soulevée par Poincaré.

Après un aperçu des idées de Gauss sur la loi des erreurs, de celles de Poincaré sur la question de la permanence des erreurs, et l’exposé du calcul de Gauss et de sa cohérence, nous présentons l’outil d’extension qui permet de construire un calcul lipschitzien et son axiomatisation. Nous évoquerons ensuite les liens avec l’expérimentation et les statistiques puis les exemples d’épreuves répétées en dimension finie et infinie où l’on rencontre le phénomène de permanence des erreurs. Cette rédaction est inspirée des articles [1] et du livre [2].

Au contraire des grandeurs discrètes, les grandeurs continues sont le plus souvent entachées d’erreur. Devant ce problème pratique plusieurs attitudes se rencontrent. Nous nous proposons de parler d’erreurs rigoureusement, en les supposant petites et en contrôlant les termes de leurs développements dans les calculs. Cette voie a été initiée par Legendre, Laplace et Gauss au début du 19ème siècle, dans une série de travaux qu’on désigne par Théorie classique des erreurs. Le plus célèbre d’entre eux est la démonstration par Gauss de la “loi des erreurs” par laquelle il montre, avec des hypothèses dont certaines, implicites, seront relevées par d’autres auteurs, que si l’on considère, dans une situation expérimentale, que la moyenne arithmétique des mesures faites est la meilleure valeur à prendre en compte, on doit admettre que les erreurs suivent une loi normale. Son raisonnement est probabiliste : la grandeur à mesurer est une variable aléatoire X et les mesures X1 , . . . , Xn sont supposées conditionnellement indépendantes sachant X.

A la fin du même siècle, dans son cours de Calcul des probabilités Henri Poincaré revient sur cette question en montrant que si on affaiblit certains présupposés de Gauss, d’autres lois que la loi normale peuvent être atteintes. Il discute longuement un point nouveau et délicat : le phénomène de permanence des erreurs, qu’il énonce ainsi :

“Avec un mètre divisé en millimètres, on ne pourra jamais, écrit-il, si souvent qu’on répète les mesures, déterminer une longueur à un millionième de millimètre près”.

Ce phénomène est bien connu des physiciens, dans toute l’histoire de la physique on n’a jamais été capable de faire des mesures précises avec des instruments grossiers. Cela signifie que faire beaucoup de mesures et prendre la moyenne ne suffit pas à garantir une précision arbitrairement fine. Nous approfondirons cette question et donnerons une explication mathématique de ce phénomène. Poincaré ne développe pas de formalisme mathématique pour cela, il insiste en revanche sur l’avantage de supposer les erreurs petites car alors l’argument de Gauss devient compatible avec les changements de variables non-linéaires qui peuvent s’écrire par le calcul différentiel.

Télécharger introduction au calcul d’erreur            Download introduction to error calculus

[1] N. Bouleau “Calcul d’erreur complet lipschitzien et formes de Dirichlet” Journal de Math. Pures et App. vol 80, n9, 961-976 (2001) — “On some errors related to the graduation of measuring instruments” 2006 hal-00105452 — “On error operators related to the arbitrary functions principle” Jour. Functional Analysis 251, (2007) 325-345.

[2] N. Bouleau, Error Calculus for Finance and Physics, the Language of Dirichlet Forms, De Gruyter 2003.

Ce contenu a été publié dans Mathématiques, avec comme mot(s)-clé(s) , , , , , , , , , , , , , , , , , , , , , . Vous pouvez le mettre en favoris avec ce permalien.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *