Cette publication est accessible gratuitement
Lire

Définition de : MESURE

De
7 pages
Article publié par Encyclopaedia Universalis MESURE Une mesure scientifique est une opération qui associe un ou plusieurs nombres aux caractéristiques d'un phénomène d'apparence bien définie. Pour qu'elle ait un sens, il convient que cette association puisse être menée de manière reproduisible et suffisamment précise. La mesure est une étape essentielle de la mathématisation du réel associée à la démarche scientifique. Si l'on excepte le simple dénombrement d'objets, cette opération nécessite la définition d'une unité (ou échelle) de mesure, généralement adoptée par convention. Les notions d'erreur et d'incertitude sont intrinsèquement liées à celle de mesure. La science de la mesure, un besoin historique Née il y a quatre à cinq mille ans dans l'ancienne Égypte et la civilisation sumérienne, la science de la mesure est indissociable des progrès de la connaissance du monde matériel, et s'affine tout au long de l'Antiquité et du e Moyen Âge. La métrologie moderne se développe à partir du xv siècle. Dans la Docte Ignorance (1440), Nicolas de Cues déclare que la mesure est la clé de la physique et l'acte propre de la raison appliquée à connaître la nature. Les décennies qui suivent voient Léonard de Vinci et de nombreux inventeurs fonder une métrologie expérimentale. En 1595, Simon Stevin propose l'unification des mesures sur le système décimal.
Voir plus Voir moins
MESURE

Une mesure scientifique est une opération qui associe un ou plusieurs nombres aux caractéristiques d'un phénomène d'apparence bien définie. Pour qu'elle ait un sens, il convient que cette association puisse être menée de manière reproduisible et suffisamment précise. La mesure est une étape essentielle de la mathématisation du réel associée à la démarche scientifique. Si l'on excepte le simple dénombrement d'objets, cette opération nécessite la définition d'une unité (ou échelle) de mesure, généralement adoptée par convention. Les notions d'erreur et d'incertitude sont intrinsèquement liées à celle de mesure.

La science de la mesure, un besoin historique

Née il y a quatre à cinq mille ans dans l'ancienne Égypte et la civilisation sumérienne, la science de la mesure est indissociable des progrès de la connaissance du monde matériel, et s'affine tout au long de l'Antiquité et du Moyen Âge. La métrologie moderne se développe à partir du xve siècle. Dans la Docte Ignorance (1440), Nicolas de Cues déclare que la mesure est la clé de la physique et l'acte propre de la raison appliquée à connaître la nature. Les décennies qui suivent voient Léonard de Vinci et de nombreux inventeurs fonder une métrologie expérimentale. En 1595, Simon Stevin propose l'unification des mesures sur le système décimal. Les instruments de mesure fondamentaux apparaissent au xviie siècle dans la forme que l'on connaît encore de nos jours : balance de précision, microscope, horloge à balancier... Le xviiie siècle est marqué par les premières mesures électriques et la naissance du système métrique français ; le siècle suivant dote la science classique d'instruments de mesure raffinés dans tous les domaines. L'essor de l'électronique et les techniques d'affichage numérique modifient considérablement les méthodes de mesure au xxe siècle.

La normalisation

Après l'extrême diversité des unités de mesure utilisées jusqu'au xviiie siècle, la commodité d'une définition universelle a convaincu un nombre croissant d'utilisateurs, qu'ils soient marchands ou scientifiques. Les premiers étalons furent définis avec précision à partir de grandeurs universelles comme le méridien terrestre et le jour solaire. Conservés avec soin dans un lieu sûr, ils définissent les unités de base (mètre, seconde, kilogramme). Le passage d'une définition à une autre permettra d'améliorer progressivement la précision. Ainsi en 1889, le kilogramme devient, au lieu de la masse du décimètre cube d'eau pure, celle d'un prototype en platine iridié déposé au pavillon de Breteuil, à Sèvres. Signe de l'évolution des modes scientifiques, l'unité de mesure du temps est passée d'un phénomène aisément observable à un processus microscopique. Ainsi, alors que la durée moyenne du jour constituait auparavant l'étalon de temps, on définit depuis 1967 la seconde comme la durée de 9 192 631 770 périodes de la radiation correspondant à la transition entre les deux niveaux hyperfins de l'état fondamental de l'atome de césium 133. Quant à l'unité de longueur, c'est sans doute celle dont la définition a le plus évolué. Le mètre a d'abord été défini à partir du méridien terrestre, puis représenté par un prototype unique déposé au pavillon de Breteuil. On a adopté ensuite une définition issue de la physique atomique (un multiple de la longueur d'onde d'une radiation émise par un atome de krypton), pour finalement le relier en 1983 à la vitesse de la lumière, le mètre se définissant désormais comme la longueur du trajet parcouru dans le vide par la lumière pendant une durée de 1 /299 792 458 de seconde. Cette définition revient en fait à le considérer comme une grandeur dérivée de l'unité de temps, la vitesse de la lumière jouant le rôle central que lui donne la théorie de la relativité.

Erreurs et incertitudes de mesure

Les notions d'erreur et d'incertitude sont liées à la notion de mesure. L'erreur absolue, définie comme la différence entre la valeur mesurée et la valeur vraie, ne caractérise pas vraiment la qualité d'une mesure. On préfère souvent introduire la notion d'erreur relative, rapport de l'erreur absolue à la valeur vraie, souvent exprimée en pourcentage. L'incertitude – absolue ou relative elle aussi – est une estimation raisonnable de l'erreur.

Il existe de nombreuses sources d'erreurs. Toute mesure étant tributaire d'instruments plus ou moins imparfaits, sa qualité est nécessairement liée à celle de l'appareil utilisé. On quantifie l'incertitude résultante par l'estimation d'un degré de précision. Pour donner quelques ordres de grandeur, une précision instrumentale de l'ordre du dix millionième est couramment obtenue dans le domaine des mesures de longueur, en faisant appel à des phénomènes optiques d'interférence. C'est pour les mesures du temps (ou de fréquences) qu'elle est actuellement la meilleure : une horloge atomique au césium permet une précision de 10–14, ce qui équivaut à moins d'une seconde de variation sur trois millions d'années ! Outre leur précision limitée, les instruments peuvent introduire des erreurs systématiques, définies comme celles qui restent sensiblement les mêmes lorsqu'on opère dans des conditions identiques. L'exemple le plus simple en est une montre qui avance.

Il faut également considérer les erreurs d'origines très diverses liées à la méthode mise en œuvre. Certaines – comme l'influence de la température, de l'humidité, d'un champ magnétique parasite – peuvent faire l'objet d'une évaluation par des études scientifiques. Les bruits et les erreurs spécifiques des appareils électroniques font, par exemple, l'objet d'études spécialisées dans le cadre de la théorie du signal. Les erreurs aléatoires enfin, dues aux perturbations très difficilement évitables comme les vibrations, les courants d'air, les mauvais contacts ou les erreurs humaines, sont estimées par le biais des méthodes statistiques, dont l'exemple le plus connu est la célèbre courbe en cloche dite de Gauss. L'évaluation de la résultante de toutes ces erreurs constitue le calcul d'incertitude qui accompagne tout énoncé correct d'un résultat.

Les limites de la métrologie

À très petite échelle, les conditions de la métrologie sont différentes. D'une part, certains processus de mesure se révèlent inopérants : ainsi on ne peut pas utiliser un phénomène lumineux pour mesurer un objet dont les dimensions sont très inférieures à celles de la longueur d'onde utilisée. D'autre part, la physique moderne ajoute à cette imprécision technique une indétermination plus fondamentale, car l'acte même de la mesure perturbe les caractéristiques de l'objet que l'on projetait de mesurer. C'est ce qu'expriment les relations d'incertitude (ou d'indétermination) de Heisenberg qui énoncent, par exemple, que le produit des précisions de mesures de la position et de la quantité de mouvement d'une particule ne peut être plus petit qu'un nombre connu (à savoir la constante de Planck divisée par 4π). Une importante conséquence en est qu'aucune expérience de physique ne permet de connaître la trajectoire exacte d'une particule, puisqu'on ne peut pas mesurer précisément sa position sans perturber gravement son mouvement. De plus, la notion de grandeur mesurable fait souvent place, en physique quantique, à celle d'une distribution de valeurs possibles, affectées chacune d'une probabilité. Ainsi, déterminer la durée de vie d'un noyau atomique instable correspond non pas à la simple mesure d'un intervalle de temps séparant deux instants, mais à l'analyse statistique d'une série de mesures conduisant au calcul d'une vie moyenne, seule grandeur qu'on puisse déduire d'une théorie satisfaisant les exigences quantiques. Il ne faudrait pas déduire de ces difficultés que la physique quantique échappe au nécessaire processus de validation d'une théorie par des mesures expérimentales.

Notons, pour finir, la limitation fondamentale apportée à l'intérêt de la notion de précision d'une mesure par la reconnaissance de l'instabilité essentielle des systèmes dynamiques, étudiée par les théoriciens du chaos déterministe. Une mesure étant souvent effectuée afin de prédire l'évolution d'un système physique, l'extrême sensibilité aux conditions initiales des systèmes d'équations différentielles exprimant les lois de la physique (classique) rend d'une certaine façon illusoire son degré de précision. C'est pour des raisons de ce type que les prévisions météorologiques semblent intrinsèquement impossibles sur une durée excédant quelques jours, et cela quelle que soit la qualité des mesures effectuées.

Auteur: Bernard PIRE
Un pour Un
Permettre à tous d'accéder à la lecture
Pour chaque accès à la bibliothèque, YouScribe donne un accès à une personne dans le besoin