La modélisation de la foudre

-

Livres
521 pages
Lire un extrait
Obtenez un accès à la bibliothèque pour le consulter en ligne
En savoir plus

Description

La modélisation de la foudre présente un ensemble de modèles qui décrivent les manifestations électrophysiques rapides de la foudre. D'un modèle "métallique" classique, on passe à un modèle électrothermique plus élaboré qui tient compte de la nature physique du canal. La puissance de l'onde de choc qui résulte de l'explosion du canal originel est évaluée. Les variables électrothermiques et les puissances lumineuses qui en découlent sont également estimées. Cet ouvrage sera indispensable à tous les spécialistes physiciens de la foudre et de ses effets. Les ingénieurs concernés par la sécurité et la protection des matériels soumis aux décharges orageuses trouveront des informations indispensables à l'amélioration de la fiabilité et la qualité de service.
Introduction à la phénoménologie de la foudre. Le modèle métallique. Tentative d'établissement d'un modèle électrothermique. Conséquences énergétiques sur les propriétés physiques du canal pendant le régime transitoire. Sur les propriétés physiques du canal pendant le régime quasi-continu. Applications. Conclusion. Bibliographie. Annexes.

Sujets

Informations

Publié par
Date de parution 24 octobre 2005
Nombre de visites sur la page 69
EAN13 9782746228672
Licence : Tous droits réservés
Langue Français

Informations légales : prix de location à la page 0,1275 €. Cette information est donnée uniquement à titre indicatif conformément à la législation en vigueur.

Signaler un problème
Avant-propos A la lecture de quelques publications récentes, il m'a semblé qu'un certain nombre de résultats théoriques pourtant anciens, publiés ou non publiés, étaient susceptibles d'apporter une vision qualitative et quantitative à des phénomènes pour lesquels, paradoxalement, on continue d'appliquer des lois impropres car trop simplistes. (1) Il est vrai qu'un modèle doit être le plus simple possible sans que les simplifications introduites entraînent une approximation extrême au point de s'éloigner trop loin du phénomène réel d'où l'introduction de la notion de degré de fidélité qui prolonge l'idée de barre d'erreurs mais qui n'a de sens que dans les approximations mesurables, c'est à dire des erreurs introduites par le cheminement qu'on effectue d'un ou plusieurs points connus jusqu'aux résultats recherchés. Ignorant le phénomène réel, le résultat ne peut pas être décrit par comparaison, la notion de degré de fidélité n'a plus aucun sens sauf si on la limite aux développements intermédiaires à partir d'un point connu et incontestable. On complète cette notion de degré de fidélité par la notion d'intervalle de vraisemblance. En général, on connaît les valeurs extrêmes qu'une fonction ou un paramètre peuvent atteindre : l'intervalle de vraisemblance est alors défini par ces valeurs extrêmes. Une valeur qui possède une barre d'erreur faible dans un intervalle de vraisemblance grand obtient un très bon degré de fidélité. Une valeur qui possèderait une barre d'erreur forte occupant la presque totalité d'un intervalle de vraisemblance aurait un très mauvais degré de fidélité et serait à rejeter. Par exemple, la formule de STEINMETZ ou celle de LEVASSEUR donne des valeurs de l'effet de peau avec une précision de 1 % ce qui est un très bon degré de fidélité qui peut largement suffire pour certaines applications bien que ces formules ne soient pas démontrables parce qu'empiriques. Ce genre de situation se rencontre fréquemment dans l'étude des systèmes complexes. Le phénomène de foudre est un système complexe en particulier il peut être d'écrit par un grand nombre de paramètres qui interréagissent entre eux de façon non linéaire. Certains sont connus et peuvent être utilisés tels quels (après linéarisation toutefois), d'autres sont inconnus ou mal connus et nécessitent des transformations par des lois semi-empiriques souvent empiriques. Leur mode de réaction peut être ramené à des "boucles" que l'on retrouve dans d'autres domaines (par exemple, dans les (2) sciences humaines ou en informatique, cf. MONIN (op. cit. p. 83 et suivantes). Dans le cas qui nous intéresse les phénomènes basiques réagissent entre eux de la façon suivante : un phénomèneaagit sur un phénomènebqui devientbδaaprès l'action i i i i deaproduit. Le bδaest réinjecté dansapar l'intermédiaire de ce que l'on i i i i
(1)  Sur ces fondements, on se reportera à l'article Modèle de l'Encyclopédia Universalis, vol. 11, p. 121 et suivantes. Voir en particulier la section rédigée par Madame Marie-Antoinette TONNELAT, p. 122. (2) Voir les cinq ouvrages rédigés par Edgar MORIN sur ce sujet.
10La modélisation de la foudre
pourrait appeler un "transformeur" qui modifiebδa. Le nouvelava agir à son tour i i i surbδaet modifierapar l'intermédiaire du "transformeur". Le mécanisme se fait i i i autant de fois que nécessaire jusqu'à ce que la transformation n'a plus d'effet : on tend vers une sorte de convergence. Ce genre de boucle se rencontre en électronique (boucle d'asservissement en phase, par exemple), en électromécanique (servo mécanismes) ou en calcul numérique : le "transformeur" pouvant être un filtre, une convolution, etc., l'exemple le plus simple dans cette application est connu sous le nom de résolution par approximations successives. La foudre étant un système particulièrement complexe, il contient un très grand nombre de boucles qui interréagissent entre elles, si bien que le problème devient rapidement inextricable. D'où la nécessité d'introduire des simplifications dans la construction du modèle, d'autant plus que certaines réactions sont inconnues quantitativement voire même qualitativement. On sait qu'elles existent mais on est incapable de savoir comment et dans quel sens elles agissent. La simplification est alors radicale, on les ignore purement et simplement, ce qui n'est pas fait pour améliorer le degré de fidélité. Tout dépend alors de l'importance attribuée à une réaction dans l'ensemble des réactions. L'ignorance d'une réaction peut entraîner aucune conséquence fâcheuse, tandis qu'une autre va occasionner, par sa non-prise en compte, des dommages importants au point de dénaturer le caractère prédictif du modèle. D'où un approfondissement de cette réaction qui devient, parmi d'autres, primordiale dans la construction d'un modèle, même si sa prise en compte va entraîner de fortes complications. Supposons maintenant que l'on possède des connaissances sur les processus traités et suivis par déduction d'une formulation mathématique appropriée qui va soutenir le rôle prédictif du modèle étant entendu que cette formulation est un support mathématique, un outil pratique qui ne représente pas une théorie mathématique du phénomène étudié (sur la notion de théorie et de loi : voir la préface de NAWROCKI, op. cit.) même si souvent la démonstration mathématique permet, à l'inverse, d'atteindre une meilleure compréhension dudit phénomène. Malheureusement, dans la majorité des cas, cette méthodologie est limitée par la méconnaissance du phénomène étudié ou des données s'y rapportant pour atteindre un modèle mathématique acceptable. Une autre source de détérioration du degré de fidélité provient des approximations faites tout le long de la chaîne de calcul au détriment de la rigueur mathématique, ce qui a pour effet de provoquer le courroux et les protestations des mathématiciens professionnels (par exemple, DIEUDONNE dans la préface de son livre, op. cit.). En fait dans ce genre d'opération, il n'y a pas d'erreur au sens strict mais des approximations osées à condition de maîtriser la simplification introduite de cette manière pour obtenir une solution analytique acceptable, car il vaut mieux une solution même grossièrement approximative, que pas de solution du tout. C'est d'autant plus vrai que, dans bien des cas, il faut se méfier de ce que LACAZE (op. cit.) appelle des scories mathématiques résultant de la résolution d'équations, cependant bien conduite, sans qu'il y ait une signification physique à leur apparition.
 Avant-propos11
Enfin, lorsque l'on dispose de courbes expérimentales avec leur propre barre d'erreurs sans une connaissance des processus qui y conduisent, on a alors recours à la formulation mathématique des lois expérimentales (cf. VERNOTTE, op. cit.). Chargées d'une bonne dose de patience, il faut s'assurer qu'en utilisant d'autres paramètres la formulation redonne bien une autre courbe expérimentale corres-pondante et connue. Par ailleurs, si l'on part du résultat (connu) vers la source (inconnue) la mécon-naissance des mécanismes intermédiaires exacts va faire que l'objet recherché sera entaché d'erreurs dialectiques, ce qui constitue une connaissance approchée du (1) (2) phénomène réel au sens donné par BACHELARD ; cependant, pour QUILLET , approchée veut dire «qui cerne de plus en plus rigoureusement son objet». Autrement dit, nous sommes dans le domaine des approximations successives à cause du "plus en plus" mais évidemment sans la convergence puisqu'il s'agit d'une évolution dialectique de principes liés à la méthodologie du réel supposé. QUILLET montre que l'on trouve dans l'uvre de GONSETH des rapprochements avec les idées de BACHELARD dans ce domaine. GONSETH donne d'ailleurs le cheminement intellectuel nécessaire à la perception d'un phénomène complexe lorsqu'il écrit dans sa préface au livre du (3) chanoine LEMAITRE , sur l'expansion de l'Univers : «Ces quelques remarques sur les mérites comparés de l'axiome, du fait expérimental, de l'hypothèse et de la loi ne sont pas de simples jeux verbaux. L'étude des fondements et l'analyse minutieuse des méthodes nous engagent à mettre ces quatre concepts dans la même perspective : à des degrés différents, ils saisissent le réel que tous ils recherchent. Ce sont divers modes selon lesquels se joignent et se concilient la nécessité du fait et la liberté de jugement. » C'est donc faire appel à l'imagination et aux connaissances que l'on a dans le domaine du phénomène étudié mais aussi dans les domaines connexes permettant des rapprochements et donc de créer des hypothèses raisonnables ce qui rend possible, avec le support mathématique approprié, d'atteindre le résultat recherché étant entendu que sa valeur et sa qualité seront déterminées en dernier ressort par comparaison avec la mesure expérimentale dudit phénomène. Cela étant fait peut-on en déduire une justification des hypothèses avancées et, par extension, de la validité des lois qui en découlent ? Le problème est difficile et l'épistémologie ne nous renseigne guère (cf. QUILLET, p. 50 et suivantes). En définitive, il ne nous reste plus que la notion bachelardienne de "connaissance approchée" à condition de joindre aux approxi-mations dialectiques les approximations mathématiques et donc les approximations numériques qui engendrent les erreurs qui détériorent le degré de fidélité en passant du qualitatif au quantitatif.
(1) Gaston BACHELARD, Essai sur la connaissance approchée. Vrin éd. Paris 1928. (2) Pierre QUILLET, Bachelard. Editions Seghers, Paris 1964. (3) Georges LEMAITRE, L'hypothèse de l'atome primitif. Editions Griffon, Neuchâtel, 1946.
12La modélisation de la foudre
On peut appliquer ces principes à la connaissance approchée (au sens large) des mécanismes de la foudre en partant d'une hypothèse vraisemblable qui permettrait de dérouler les processus impliqués pour atteindre les grandeurs électriques nécessaires aux applications. Pour se faire, il faut trouver le concept de base qui déclenchera les dits processus. C'est ainsi que tout repose, dans le cas présent, sur la structure du canal de la foudre. Le concept le plus simple correspond au modèle métallique qui a pour nature le remplacement du canal réel par un fil métallique parcouru par un courant fonction du temps. Les équations, issues des équations de Maxwell, qui régissent ce modèle forment un système linéaire qui peut être résolu plus ou moins facilement. Les constantes réparties le long de ce fil sont considérées bel et bien comme des constantes indépendantes du temps, c'est à dire que la décharge n'a aucune influence sur leurs valeurs. Elles préexistent avant la décharge et existent après la décharge. Il en va tout autrement dans la réalité. Pour s'en approcher il faut changer de concept sur la structure du canal. C'est ainsi qu'une meilleure description consiste à considérer les paramètres caractéristiques du canal comme étant fonction du temps à cause de sa structure physique : c'est le modèle électrothermique. Ce modèle doit tenir compte du fait qu'à l'origine des temps les caractéristiques sont celles laissées par les précurseurs (conditions initiales). Après leur évolution temporelle, ces caractéristiques doivent tendre vers zéro (à cause de la conductivité du milieu) lorsque le temps tend vers l'infini. Ce qui complique le problème c'est que les caractéristiques deviennent bien des fonctions du temps mais par l'intermédiaire du courant. Autrement dit, on passe d'un système linéaire à un système non linéaire si bien que les équations de Maxwell n'étant plus valides, il devient quasiment impossible d'établir les équations qui régissent ce système. En effet, si l'on sait résoudre des équations non linéaires par des méthodes numériques appropriées, faut-il encore établir les dites équations. L'approximation fondamentale consiste donc à linéariser le problème, du moins en partie de façon à utiliser les indispensables équations de Maxwell. On aboutit alors à une ou plusieurs équations telles que leur membre gauche soit linéaire et en regroupant dans le membre de droite les variations non linéaires restantes. Ce système étant fermé, on lui applique alors une boucle de rétroaction. Le courant est alors donné par une suite de termes obtenus de la façon suivante : le terme fondamental est issu du membre gauche en annulant le membre de droite. Le terme fondamental ainsi obtenu est introduit dans le membre de droite. Le terme d'ordre supérieur est alors apporté en résolvant une nouvelle équation mais muni d'un second membre. On répète l'opération de proche en proche jusqu'à une convergence raisonnable de la série itérative ainsi obtenue. Lorsque cette méthode d'approximations successives est prise en défaut, il ne reste plus que la solution qui consiste à prendre les caractéristiques du milieu en moyenne puisqu'on connaît désormais les évolutions temporelles des caractéristiques. On retombe alors sur le modèle métallique puisque les caractéristiques deviennent des constantes mais avec un bien meilleur degré de fidélité. Tout ce qui a été dit ci-dessus s'applique à l'étape du régime transitoire (moins de quelques microsecondes), mais s'applique aussi, quoique avec d'autres équations, à l'étape du régime quasi-continu (plusieurs dizaines de millisecondes) et aux étapes intermédiaires.
 Avant-propos13
Selon le modèle choisi, on aboutit à plusieurs formes évolutives pour représenter le courant. Ces formes dépendent de constantes de temps qui permettent l'expression la plus proche des courbes expérimentales à condition de connaître l'évolution spatio-temporelle de la charge par unité de longueur indispensable pour le calcul du champ électrique à très courte distance. Il faut donc calculer cette charge par une étude différente : les deux grandeurs physiques courant et charge étant reliées entre elles par une équation de continuité. Les constante de temps dans le modèle métallique sont déterminées à partir des caractéristiques électriques des sols (conductivité et pouvoir inducteur spécifique). Il n'en est plus de même avec le modèle électrothermique ; les constantes de temps deviennent de simples paramètres qui interviennent pour rendre homologue le support mathématique qui représente les grandeurs physiques recherchées comme le courant et la charge par unité de longueur, par exemple. A ces paramètres viennent s'ajouter d'autres paramètres pour la plupart inconnus et qui nécessitent, lorsqu'ils sont indispensables, une évaluation semi-empirique voire empirique. C'est à ce stade qu'on se rend compte que la foudre appartient bien à la famille des systèmes complexes et que les solutions obtenues seront entachées d'erreur par nécessité. C'est ainsi que, faute de mieux, la meilleure solution est l'imbrication du modèle électrothermique dans le modèle métallique permettant de joindre la rigueur du premier, même avec des approximations, à la relative facilité d'emploi du second. Finalement, cette théorisation de manifestations extrêmement compliquées a pour but de montrer que, par des simplifications appropriées ou des approximations plus ou moins grossières en ce qui concerne la formulation mathématique par exemple, il est possible de créer une sorte de modèle plus ou moins fidèle mais qui constitue une base susceptible d'être utilisée dans des problèmes d'électrotechniques posés par l'action directe ou indirecte de la foudre. Cette simplification systématique doit cependant être limitée par l'introduction de concepts plus élaborés permettant l'introduction de degré dans la fidélité du modèle. Mais ce perfectionnement est forcément limité par des considérations économiques. Depuis l'introduction de l'informatique ou, pour être plus précis, du calcul numérique informatisé, il est tentant de consacrer des moyens à l'obtention de modèle de plus en plus exact, mais à quel prix ? Dans certaines applications est-ce nécessaire d'atteindre des correspondances expérimentation-théorie inférieure au pour cent alors que 10 % suffisent dans la plupart des applications. Naturellement, cela ne veut pas dire que si des améliorations peuvent être apportées au modèle il faille les négliger surtout si elles sont peu coûteuses et résultent d'avancées conceptuelles. Dans le cas de la foudre, la complexité des phénomènes est telle que seuls les résultats statistiques sont valables. Dans ces conditions, je pense qu'une théorisation telle que celle qui est proposée dans ce mémoire devrait fournir un modèle suffisant ou donner quelques pistes à explorer dans l'avenir.
14La modélisation de la foudreEnfin, pour terminer, je voudrais faire quelques remarques d'ordre sémantique. Les phénomènes développés pendant une décharge d'orage sont suffisamment confus pour qu'il n'y ait pas d'ambiguïté sur le sens des termes utilisés. On trouvera, ci-dessous, la définition des termes employés et leur correspondance avec les termes anglais (d'après MAURIN et SOURDILLON). Les termes donnés dans le lexique résultent des observations photographiques des éclairs. Les mécanismes physiques sont beaucoup plus complexes que ne le laisse prévoir l'observation phénoménologique des phases visibles du processus de l'éclair même si, à l'aide de caméras rapides, les mécanismes fondamentaux ont pu être mis en évidence (SCHONLAND, collaborateurs et disciples) après 1934. Dans ces conditions, on peut s'étonner de voir apparaître, depuis quelques années, le terme "arc en retour" pour la traduction de "return stroke". C'est un terme impropre, son contenu sémantique est absolument à l'opposé de celui qu'il devrait être. Comment peut-on utiliser un terme qui, par définition, représente un phénomène permanent pour décrire un phénomène rapidement évolutif. Dans un arc, toutes les dérivées par rapport au temps des variables électriques et thermodynamiques sont nulles, ce qui est loin d'être le cas dans ce qui est le régime transitoire de la décharge proprement dite. Cela ne veut pas dire qu'il n'y a pas des phases se rapprochant des propriétés physiques de l'arc, en particulier pendant et à la fin de la décharge principale. La richesse des propriétés physiques de la décharge de foudre ne permet cependant pas de choisir parmi l'une d'elles le terme générique de l'ensemble, surtout lorsqu'il s'agit d'une phase intéressante, il est vrai, mais secondaire dans la manifes-tation de la décharge. En effet, c'est précisément pendant la variation la plus intense (dérivées maximales) que l'on fait l'amalgame. Il est dommage que l'on puisse prendre un mot pour un autre : il ne faut pas confondre en effet arc et étincelle, les anglo-saxons ne se sont pas, d'ailleurs, donné le ridicule de changer "return stroke" en "return arc".