Cet ouvrage fait partie de la bibliothèque YouScribe
Obtenez un accès à la bibliothèque pour le lire en ligne
En savoir plus
ou
Achetez pour : 100,00 €

Lecture en ligne + Téléchargement

Format(s) : PDF

sans DRM

Le traitement des images

De
369 pages
Le traitement automatique des images par ordinateur nécessite la maîtrise d'une suite d'opérations dont cet ouvrage élabore l'analyse. Connaître les propriétés statistiques des images, procéder à leur échantillonnage pour réduire l'ensemble continu du monde observable en séries de valeurs discrètes, restaurer les images pour en corriger les dégradations, etc., toutes ces manipulations sont ici expliquées et les outils mathématiques qu'elles requièrent produits.
Propriétés statistiques des images -Henri Maître. Échantillonnage des images et représentation fractale. Représentations discrètes -Isabelle Bloch . Restauration des images -Henri Maître. Morphologie mathématique -Isabelle Bloch. Les champs de Markov -Florence Tupin, Marc Sigelle. Ondelettes et traitement d'images -Béatrice Pesquet-Popescu, Jean-Christophe Pesquet. Les équations aux dérivées partielles -Yann Gousseau. Prétraitements -Henri Maître. Détection des contours dans les images -Henri Maître. Segmentation par régions -Henri Maître. Les textures -Henri Maître. Description de contours et de formes -Henri Maître.
Voir plus Voir moins

Le traitement des images© LAVOISIER, 2003
LAVOISIER
11, rue Lavoisier
75008 Paris
Serveur web : www.hermes-science.com
ISBN 2-7462-0584-X
Catalogage Electre-Bibliographie
Maître, Henri (sous la direction de)
Le traitement des images
Paris, Hermès Science Publications, 2003
ISBN 2-7462-0584-X
RAMEAU : traitement d’images : techniques numériques
DEWEY : 006.3 : Méthodes informatiques spéciales.
Infographie et systèmes multimédias
621.61 : Physique appliquée. Théorie du signal et
des communications. Traitement du signal
Le Code de la propriété intellectuelle n'autorisant, aux termes de l'article L. 122-5, d'une
part, que les "copies ou reproductions strictement réservées à l'usage privé du copiste et non
destinées à une utilisation collective" et, d'autre part, que les analyses et les courtes citations
dans un but d'exemple et d'illustration, "toute représentation ou reproduction intégrale, ou
partielle, faite sans le consentement de l'auteur ou de ses ayants droit ou ayants cause, est
illicite" (article L. 122-4). Cette représentation ou reproduction, par quelque procédé que ce
soit, constituerait donc une contrefaçon sanctionnée par les articles L. 335-2 et suivants du
Code de la propriété intellectuelle.Le traitement
des images
sous la direction de
Henri MaîtreIl a été tiré de cet ouvrage
20 exemplaires hors commerce réservés
aux membres du comité scientifique,
aux auteurs et à l’éditeur
numérotés de 1 à 20Le traitement des images
sous la direction de Henri Maître
fait partie de la série TRAITEMENT DU SIGNAL ET DE L’IMAGE
dirigée par Francis Castanié et Henri Maître
TRAITÉ IC2 INFORMATION – COMMANDE – COMMUNICATION
sous la direction scientifique de Bernard Dubuisson
Le traité Information, Commande, Communication répond au besoin
de disposer d'un ensemble complet des connaissances et méthodes
nécessaires à la maîtrise des systèmes technologiques.
Conçu volontairement dans un esprit d'échange disciplinaire, le traité IC2
est l'état de l'art dans les domaines suivants retenus par le comité
scientifique:
Réseaux et télécoms
Traitement du signal et de l'image
Informatique et systèmes d'information
Systèmes automatisés
Productique
Chaque ouvrage présente aussi bien les aspects fondamentaux
qu'expérimentaux. Une classification des différents articles contenus
dans chacun, une bibliographie et un index détaillé orientent le lecteur
vers ses points d'intérêt immédiats : celui-ci dispose ainsi d'un guide pour
ses réflexions ou pour ses choix.
Les savoirs, théories et méthodes rassemblés dans chaque ouvrage ont
été choisis pour leur pertinence dans l'avancée des connaissances ou pour
la qualité des résultats obtenus dans le cas d'expérimentations réelles.Liste des auteurs
Isabelle BLOCH
TSI
Ecole nationale supérieure des télécommunications
Paris
Yann GOUSSEAU
TSI
Paris
Henri MAÎTRE
TSI
Ecole nationale supérieure des télécommunications
Paris
Jean-Christophe PESQUET
IGM
Université de Marne-La-Vallée
Béatrice PESQUET-POPESCU
TSI
Paris
Marc SIGELLE
TSI
Ecole nationale supérieure des télécommunications
Paris
Florence TUPIN
TSI
ParisTable des matières
Chapitre 1. Propriétés statistiques des images ... ... ... ... ... .. 17
Henri MAÎTRE
1.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.1.1. Pourquoi étudier des propriétés statistiques ? . . . . . . . . . . . . 17
1.1.2. Quelles images ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.2. L’amplitude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.2.1. Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.2.2. Sensibilité aux modifications d’histogrammes . . . . . . . . . . . 20
1.3. Les sauts de l’amplitude . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.4. La fonction d’autocorrélation . . . . . . . . . . . . . . . . . . . . . . . . 24
1.4.1. A une dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.4.2. En multidimensions . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.4.3. Le spectre de densité de puissance . . . . . . . . . . . . . . . . . . 28
1.5. Entropie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.5.1. Entropie d’ordre 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.5.2. des sauts . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.5.3. Entropie conditionnelle, redondance . . . . . . . . . . . . . . . . . 31
1.5.4. Retour sur un paradoxe . . . . . . . . . . . . . . . . . . . . . . . . 32
1.6. Modèles d’image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.6.1. Processus de Markov Gauss . . . . . . . . . . . . . . . . . . . . . 32
1.6.2. Le modèle mosaïque . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.7. Les modèles invariants par changements d’échelle . . . . . . . . . . . . 35
1.8. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
Chapitre 2. Echantillonnage des images et représentation fractale ... .. 37
Henri MAÎTRE
2.1. Les signaux monodimensionnels à bande limitée . . . . . . . . . . . . . 38
2.1.1. Echantillonnage du signal . . . . . . . . . . . . . . . . . . . . . . . 38
2.1.2. Reconstruction du signal à la fréquence de Nyquist . . . . . . . . 39
910 Le traitement des images
2.1.3. Reconstruction dans le cas de suréchantillonnage . . . . . . . . . 40
2.2. Signaux réels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.2.1. Les limitations physiques du spectre . . . . . . . . . . . . . . . . . 41
2.2.2. Filtrage du signal . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.3. L’extension en dimension . ... ... ... ... ... ... ... .. 44
2.4. Le modèle fractal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.4.1. La dimension fractale . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.4.2. L’homothétie interne . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.4.3. Que faire de la théorie fractale ? . . . . . . . . . . . . . . . . . . . 50
2.5. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
Chapitre 3. Représentations discrètes .. ... ... ... ... ... ... .. 55
Isabelle BLOCH
3.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.2. Pavages et maillages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.2.1. Définitions et contraintes . . . . . . . . . . . . . . . . . . . . . . . 56
3.2.2. Pavages plans réguliers . . . . . . . . . . . . . . . . . . . . . . . . 58
3.2.3. Pavages plans semi-réguliers . . . . . . . . . . . . . . . . . . . . . 58
3.2.4. Dualité entre pavage et maillage . . . . . . . . . . . . . . . . . . . 59
3.3. Topologie discrète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.3.1. Quelques approches . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.3.2. Topologie à partir de la notion de voisinage élémentaire . . . . . 62
3.3.3. Nombre d’Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.4. Représentations géométriques . . . . . . . . . . . . . . . . . . . . . . . 71
3.4.1. Discrétisation d’une droite continue . . . . . . . . . . . . . . . . . 72
3.4.2. Caractérisation d’un segment de droite discret . . . . . . . . . . . 74
3.4.3. Droites analytiques discrètes . . . . . . . . . . . . . . . . . . . . . 76
3.4.4. Cercles discrets . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.4.5. Pavage de Voronoï et triangulation de Delaunay . . . . . . . . . . 80
3.5. Exemples de structures aléatoires . . . . . . . . . . . . . . . . . . . . . 84
3.6. Fonction distance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3.6.1. Définition de distances discrètes . . . . . . . . . . . . . . . . . . . 86
3.6.2. Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
3.6.3. Algorithmes de calcul . . . . . . . . . . . . . . . . . . . . . . . . . 87
3.7. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
Chapitre 4. Restauration des images ... ... ... ... ... ... ... .. 91
Henri MAÎTRE
4.1. Le filtrage inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.1.1. Approche analytique . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.1.2. algébrique . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.1.3. Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.1.4. Conclusions (provisoires) . . . . . . . . . . . . . . . . . . . . . . . 96Table des matières 11
4.2. Défauts singuliers et mal conditionnés . . . . . . . . . . . . . . . . . . . 97
4.2.1. Défauts singuliers . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.2.2. Système mal conditionné . . . . . . . . . . . . . . . . . . . . . . . 98
4.2.3. Décomposition en valeurs singulières . . . . . . . . . . . . . . . . 100
4.3. Restauration des signaux bidimensionnels . . . . . . . . . . . . . . . . 101
4.4. La restauration itérative . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4.4.1. Méthode de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4.4.2. de Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . . . 104
4.4.3. Méthode de plus grande pente . . . . . . . . . . . . . . . . . . . . 105
4.4.4. du gradient conjugué . . . . . . . . . . . . . . . . . . . . 105
4.4.5. Méthodes de projection (POCS) . . . . . . . . . . . . . . . . . . . 106
4.5. L’estimation des défauts . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
4.5.1. Détermination par calibrage . . . . . . . . . . . . . . . . . . . . . 106
4.5.2. statistique . . . . . . . . . . . . . . . . . . . . . . . 107
4.6. Réduction des effets de bord . . . . . . . . . . . . . . . . . . . . . . . . 108
4.7. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
Chapitre 5. Morphologie mathématique . ... ... ... ... ... ... .. 111
Isabelle BLOCH
5.1. Introduction et préliminaires . . . . . . . . . . . . . . . . . . . . . . . . 111
5.2. Les quatre opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
5.2.1. Notion d’élement structurant et cadre ensembliste . . . . . . . . . 114
5.2.2. Erosion et dilatation binaires . . . . . . . . . . . . . . . . . . . . . 115
5.2.3. et de fonctions . . . . . . . . . . . . . . . . . . 119
5.2.4. Ouverture et fermeture binaires . . . . . . . . . . . . . . . . . . . 123
5.2.5. Ouverture et numériques . . . . . . . . . . . . . . . . . 125
5.3. Cadre topologique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
5.4. Cadre algébrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
5.4.1. Treillis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
5.4.2. Erosion et dilatation algébriques, adjonctions . . . . . . . . . . . . 131
5.4.3. Lien avec les opérateurs morphologiques . . . . . . . . . . . . . . 132
5.4.4. Ouverture et fermeture algébriques . . . . . . . . . . . . . . . . . 132
5.5. Cadre probabiliste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
5.5.1. Ensembles fermés aléatoires . . . . . . . . . . . . . . . . . . . . . 132
5.5.2. Un exemple : le schéma booléen . . . . . . . . . . . . . . . . . . . 133
5.6. Applications de l’érosion et de la dilatation . . . . . . . . . . . . . . . . 134
5.6.1. Mesures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
5.6.2. Erodé ultime . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
5.6.3. Rehaussement de contraste . . . . . . . . . . . . . . . . . . . . . . 135
5.6.4. Gradient morphologique . . . . . . . . . . . . . . . . . . . . . . . 136
5.7. Applications de l’ouverture et de la fermeture . . . . . . . . . . . . . . 136
5.7.1. Filtres alternés séquentiels . . . . . . . . . . . . . . . . . . . . . . 136
5.7.2. auto-duaux . . . . . . . . . . . . . . . . . . . . . . . . . . . 13712 Le traitement des images
5.7.3. Chapeau haut-de-forme . . . . . . . . . . . . . . . . . . . . . . . . 138
5.7.4. Granulométries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
5.7.5. Ouverture surfacique . . . . . . . . . . . . . . . . . . . . . . . . . 140
5.7.6. Ouverture annulaire . . . . . . . . . . . . . . . . . . . . . . . . . . 141
5.8. Transformation en tout ou rien et opérateurs dérivés . . . . . . . . . . . 141
5.8.1. T en tout ou rien . . . . . . . . . . . . . . . . . . . . 141
5.8.2. Amincissement et épaississement . . . . . . . . . . . . . . . . . . 141
5.8.3. Squelette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
5.8.4. discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
5.8.5. SKIZ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
5.9. Géodésie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
5.9.1. Distance géodésique et boules géodésiques . . . . . . . . . . . . . 145
5.9.2. Opérations morphologiques géodésiques, reconstruction . . . . . 146
5.9.3. Squelette géodésique par zones d’influence . . . . . . . . . . . . . 147
5.10.Ligne de partage des eaux . . . . . . . . . . . . . . . . . . . . . . . . . . 147
5.10.1.Définition et propriétés . . . . . . . . . . . . . . . . . . . . . . . . 147
5.10.2.Applications en segmentation . . . . . . . . . . . . . . . . . . . . 148
5.11.Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
5.12.Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
Chapitre 6. Les champs de Markov . ... ... ... ... ... ... ... .. 155
Florence TUPIN et Marc SIGELLE
6.1. Définition et simulation d’un champ de Markov . . . . . . . . . . . . . 156
6.1.1. Description de l’image . . . . . . . . . . . . . . . . . . . . . . . . 156
6.1.2. Modélisation probabiliste de l’image . . . . . . . . . . . . . . . . 157
6.1.3. Champs de Markov – Champs de Gibbs . . . . . . . . . . . . . . . 158
6.1.4. Echantillonnage de MRF . . . . . . . . . . . . . . . . . . . . . . . 161
6.1.5. Recherche de la configuration la plus probable . . . . . . . . . . . 163
6.1.6. Quelques MRF fondamentaux . . . . . . . . . . . . . . . . . . . . 167
6.2. Applications : restauration et segmentation . . . . . . . . . . . . . . . . 170
6.2.1. Cadre bayésien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
6.2.2. Cas de la restauration . . . . . . . . . . . . . . . . . . . . . . . . . 172
6.2.3. Cas de la segmentation . . . . . . . . . . . . . . . . . . . . . . . . 173
6.3. Estimateurs dans un cadre markovien . . . . . . . . . . . . . . . . . . . 174
6.3.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
6.3.2. Modélisation bayésienne et fonction de coût . . . . . . . . . . . . 174
6.3.3. Estimateur MAP . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
6.3.4. MPM . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
6.3.5. Estimateur TPM . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
6.3.6. Comparaison des estimateurs MAP, MPM et TPM . . . . . . . . . 180
6.4. Estimation des paramètres . . . . . . . . . . . . . . . . . . . . . . . . . 181
6.4.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
6.4.2. Données complètes . . . . . . . . . . . . . . . . . . . . . . . . . . 183Table des matières 13
6.4.3. Données incomplètes . . . . . . . . . . . . . . . . . . . . . . . . . 184
6.5. Processus de bords . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
6.5.1. Processus de bords explicites et implicites . . . . . . . . . . . . . 187
6.5.2. Algorithmes de minimisation . . . . . . . . . . . . . . . . . . . . . 189
6.6. Graphes de primitives . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
6.7. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
Chapitre 7. Ondelettes et traitement d’images ... ... ... ... ... .. 193
Béatrice PESQUET-POPESCU et Jean-Christophe PESQUET
7.1. Principes de l’analyse linéaire des images . . . . . . . . . . . . . . . . . 193
7.2. Trames . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
7.2.1. Objectif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
7.2.2. Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
7.2.3. Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
7.2.4. Trame duale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
7.2.5. Algorithme des trames . . . . . . . . . . . . . . . . . . . . . . . . 202
7.2.6. Exemples de trames . . . . . . . . . . . . . . . . . . . . . . . . . . 205
7.3. Poursuite adaptative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
7.3.1. Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
7.3.2. Algorithme de poursuite . . . . . . . . . . . . . . . . . . . . . . . 209
7.3.3. Améliorations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
7.4. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
Chapitre 8. Les équations aux dérivées partielles . ... ... ... ... .. 215
Yann GOUSSEAU
8.1. L’équation de la chaleur et ses limitations . . . . . . . . . . . . . . . . . 216
8.1.1. Quelques notations . . . . . . . . . . . . . . . . . . . . . . . . . . 216
8.1.2. Pourquoi l’équation de la chaleur ? . . . . . . . . . . . . . . . . . 216
8.1.3. Equation de la chaleur et noyau gaussien . . . . . . . . . . . . . . 217
8.1.4. Application aux images . . . . . . . . . . . . . . . . . . . . . . . . 218
8.1.5. L’équation de la chaleur inverse . . . . . . . . . . . . . . . . . . . 218
8.1.6. Limitations, invariance par changement de contraste . . . . . . . 220
8.2. Equations de diffusion non linéaires . . . . . . . . . . . . . . . . . . . . 223
8.2.1. Notations et structure locale des images . . . . . . . . . . . . . . . 223
8.2.2. L’équation de Malik et Perona . . . . . . . . . . . . . . . . . . . . 224
8.2.3. Mouvement par courbure moyenne et variantes . . . . . . . . . . 227
8.2.4. L’équation de Rudin-Osher-Fatemi . . . . . . . . . . . . . . . . . 229
8.2.5. Le filtre de choc de Rudin . . . . . . . . . . . . . . . . . . . . . . . 230
8.3. EDP et analyse multiéchelle . . . . . . . . . . . . . . . . . . . . . . . . 230
8.3.1. Définition et propriétés des analyses multiéchelles . . . . . . . . . 231
8.3.2. Pourquoi les analyses multiéchelles sont régies par des EDP . . . 234
8.3.3. Classification des analyses . . . . . . . . . . . . . . 235
8.4. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23714 Le traitement des images
Chapitre 9. Prétraitements . ... .. ... ... ... ... ... ... ... .. 239
Henri MAÎTRE
9.1. Les traitements photométriques ou colorimétriques . . . . . . . . . . . 239
9.1.1. Linéarité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
9.1.2. Homogénéité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
9.1.3. Binarisation, seuillage . . . . . . . . . . . . . . . . . . . . . . . . . 242
9.1.4. Augmentation de contraste . . . . . . . . . . . . . . . . . . . . . . 242
9.2. Suppression des bruits . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
9.2.1. Filtrages linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
9.2.2. Filtrage de rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
9.2.3. Filtrages morphologiques . . . . . . . . . . . . . . . . . . . . . . . 245
9.2.4. par équations de diffusion . . . . . . . . . . . . . . . . . 245
9.3. Les filtres adaptatifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
9.3.1. Les filtres à coefficients adaptatifs . . . . . . . . . . . . . . . . . . 249
9.3.2. Les filtres à fenêtres adaptatives . . . . . . . . . . . . . . . . . . . 250
9.4. Le rééchantillonnage des images . . . . . . . . . . . . . . . . . . . . . . 251
9.4.1. Interpolation avec des polynômes . . . . . . . . . . . . . . . . . . 252
9.4.2. par des B-splines... ... ... ... ... ... .. 253
9.4.3. adaptative . . . . . . . . . . . . . . . . . . . . . . . . 255
9.5. Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
Chapitre 10. Détection des contours dans les images .. ... ... ... .. 259
Henri MAÎTRE
10.1.Un modèle continu de contour . . . . . . . . . . . . . . . . . . . . . . . 260
10.2.Les approches classiques . . . . . . . . . . . . . . . . . . . . . . . . . . 262
10.2.1.Les détecteurs de gradient parfiltrage . . . . . . . . . . . . . . . . 262
10.2.2.Les de par masques . . . . . . . . . . . . . . . 263
10.2.3.Pré- et post-traitements . . . . . . . . . . . . . . . . . . . . . . . . 264
10.2.4.Les détecteurs de passage par zéro du laplacien . . . . . . . . . . 266
10.2.5.Les par masquage adapté... ... ... ... ... .. 268
10.3.Les approches analytiques . . . . . . . . . . . . . . . . . . . . . . . . . 269
10.3.1.Les critères de Canny . . . . . . . . . . . . . . . . . . . . . . . . . 269
10.3.2.Les filtres de Deriche et Shen-Castan . . . . . . . . . . . . . . . . 270
10.3.3.L’extension à 2D . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
10.3.4.Variantes autour des filtres analytiques . . . . . . . . . . . . . . . 272
10.4.Les contours actifs (snakes). . ... ... ... ... ... ... ... .. 274
10.4.1.Une approche physique des contours . . . . . . . . . . . . . . . . 274
10.4.2.Mise en équation des contours actifs . . . . . . . . . . . . . . . . . 276
10.4.3.Les ensembles de niveaux (levelsets) . . ... ... ... ... .. 278
10.4.4.Les modèles géodésiques actifs . . . . . . . . . . . . . . . . . . . 279
10.5.La poursuite et la fermeture des contours . . . . . . . . . . . . . . . . . 280
10.5.1.Méthodes de recherche dans des graphes . . . . . . . . . . . . . . 280Table des matières 15
10.5.2.Les automates . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282
10.6.Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
Chapitre 11. Segmentation par régions . ... ... ... ... ... ... .. 287
Henri MAÎTRE
11.1.Les méthodes sur histogramme . . . . . . . . . . . . . . . . . . . . . . . 287
11.1.1.Avec apprentissage . . . . . . . . . . . . . . . . . . . . . . . . . . 288
11.1.2.Seuillage sans apprentissage . . . . . . . . . . . . . . . . . . . . . 289
11.1.3.Méthodes de classification . . . . . . . . . . . . . . . . . . . . . . 290
11.1.4.Sélection sur l’histogramme et dans l’image . . . . . . . . . . . . 291
11.1.5. sur histogramme et régularisation . . . . . . . . . . . . . 291
11.2.Les méthodes par transformation de régions . . . . . . . . . . . . . . . 293
11.2.1.La croissance de région . . . . . . . . . . . . . . . . . . . . . . . . 294
11.2.2.Le partage de région . . . . . . . . . . . . . . . . . . . . . . . . . . 295
11.2.3.La réunion de . . . . . . . . . . . . . . . . . . . . . . . . . . 296
11.2.4.Les pyramides . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297
11.3.Les graphes d’adjacence . . . . . . . . . . . . . . . . . . . . . . . . . . 298
11.4.La méthode MDL : MinimumDescriptionLength . ... ... ... .. 299
11.5.L’approche de Mumford et Shah . . . . . . . . . . . . . . . . . . . . . . 301
11.5.1.Approche formelle . . . . . . . . . . . . . . . . . . . . . . . . . . . 301
11.5.2.En simplifiant la méthode de Mumford-Shah . . . . . . . . . . . . 303
11.6.Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305
Chapitre 12. Les textures .. ... .. ... ... ... ... ... ... ... .. 309
Henri MAÎTRE
12.1.Qu’est-ce qu’une texture ? . . . . . . . . . . . . . . . . . . . . . . . . . 309
12.1.1.Distribution aléatoire ou régulière ? . . . . . . . . . . . . . . . . . 311
12.1.2.Les échelles des textures . . . . . . . . . . . . . . . . . . . . . . . 311
12.1.3.Analyse ou synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . 312
12.2.Modèles de texture . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
12.2.1.Un modèle biologiquement plausible . . . . . . . . . . . . . . . . 312
12.2.2.Modèles stochastiques . . . . . . . . . . . . . . . . . . . . . . . . . 313
12.3.Analyse et reconnaissance de textures . . . . . . . . . . . . . . . . . . . 313
12.3.1.Schéma général . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313
12.3.2.Approches par mesures statistiques . . . . . . . . . . . . . . . . . 315
12.3.3.La détection d’énergie dans des canaux fréquentiels . . . . . . . . 319
12.3.4.Les filtres optimisés . . . . . . . . . . . . . . . . . . . . . . . . . . 321
12.3.5.Les modélisations autorégressives . . . . . . . . . . . . . . . . . . 322
12.4.Les approches par champs markoviens . . . . . . . . . . . . . . . . . . 322
12.4.1.La méthode de Manjunath et Chellappa . . . . . . . . . . . . . . . 323
12.4.2.La de Kervrann et Heitz . . . . . . . . . . . . . . . . . . 325
12.5.Les méthodes structurales . . . . . . . . . . . . . . . . . . . . . . . . . . 326
12.6.Textures hétérogènes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32616 Le traitement des images
12.7.Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327
Chapitre 13. Description de contours et de formes . ... ... ... ... .. 331
Henri MAÎTRE
13.1.Fonction caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . 332
13.2.Description de formes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333
13.2.1.Représentation par les moments . . . . . . . . . . . . . . . . . . . 334
13.2.2. par les invariants . . . . . . . . . . . . . 334
13.2.3.Boîtes englobantes et boîtes minimales . . . . . . . . . . . . . . . 335
13.3.Polygones de Guzman . . . . . . . . . . . . . . . . . . . . . . . . . . . . 336
13.4.Chaînes de Freeman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 337
13.4.1.Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 337
13.4.2.Les propriétés des chaînes de Freeman . . . . . . . . . . . . . . . 339
13.4.3.Reconnaissance des formes par des chaînes de Freeman . . . . . 342
13.5.Descripteurs de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . 342
13.5.1.Descripteur par tangente . . . . . . . . . . . . . . . . . . . . . . . 342
13.5.2.Représentation complexe . . . . . . . . . . . . . . . . . . . . . . . 343
13.6.Approximations polynomiales . . . . . . . . . . . . . . . . . . . . . . . 345
13.6.1.Approximation d’un nuage de points par une droite unique . . . . 345
13.6.2. polygonales . . . . . . . . . . . . . . . . . . . . . 349
13.6.3. par des splines . . . . . . . . . . . . . . . . . . . . 351
13.7.Transformation de Hough . . . . . . . . . . . . . . . . . . . . . . . . . . 353
13.7.1.Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353
13.7.2.Mise en œuvre de la TH . . . . . . . . . . . . . . . . . . . . . . . . 356
13.7.3.Détections par TH . . . . . . . . . . . . . . . . . . . . . . . . . . . 358
13.8.Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359
13.9.Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359
Index .. ... ... ... ... ... .. ... ... ... ... ... ... ... .. 361Chapitre 1
Propriétés statistiques des images
1.1. Introduction
1.1.1. Pourquoiétudierdespropriétésstatistiques?
L’analyse des propriétés statistiques des images est dictée par le souci d’adapter
des traitements ultérieurs comme le filtrage, la restauration, le codage ou la recon-
naissance des formes au signal d’image. Les techniques de base mises en œuvre pour
supprimer un bruit ou pour rehausser un signal affaibli reposent toutes sur des hypo-
thèses sur ce qu’est le signal et ce qu’est le bruit, c’est-à-dire sur des modélisations du
signal et du bruit. Les techniques statistiques, reprises par les méthodes de traitement
de signal, font ainsi abondamment l’hypothèse que les signaux sont gaussiens ou uni-
formément répartis dans un intervalle par exemple et les bruits blancs, c’est-à-dire à
corrélation microscopique. De ces modèles, on peut déduire par des enchaînements
rigoureux l’optimalité d’unfiltre ou l’estimation de ses performances, en moyenne ou
dans le pire des cas. La validité ou la qualité du filtre du codeur ou du détecteur dé-
pendra en pratique de l’adéquation des hypothèses qui sont à la base de son calcul et
des propriétés présentées par le signal réellement traité.
On a donc très tôt mesuré les propriétés statistiques des images et essayé d’en
déduire des modèles permettant d’expliquer les images. Ces modélisations statistiques
ont cependant très peu d’écho dans notre vie quotidienne car elles ont beaucoup moins
d’utilisations que des descriptions « structurelles » ou « syntaxiques » qui donnent de
chaque image une représentation à base de langage naturel et de géométrie, comme
Chapitre rédigé par Henri MAÎTRE.
1718 Le traitement des images
par exemple : « une femme au sourire énigmatique, les bras croisés sur la poitrine
devant un paysage de montagne ».
Dans l’objectif d’un traitement automatique par ordinateur, la représentation sta-
tistique est cependant très utile, car elle nourrit immédiatement des algorithmes plus
ou moins élaborés manipulant les pixels, composants élémentaires de l’image. L’uni-
versalité de codeurs comme JPEG ou MPEG, qui reposent beaucoup sur ce type de
propriétés, atteste de l’intérêt technique de ces études.
Notre démarche sera la suivante : dans un premier temps nous passerons en revue
les mesures statistiques les plus simples, celles qui sont obtenues par balayage mono-
dimensionnel de l’image. Nous en déduirons un modèle, assez universellement utilisé.
Nous en montrerons les limites. Nous présenterons quelques propriétés bidimension-
nelles mal couvertes par ce modèle. Nous suggérerons des améliorations du modèle
de base.
1.1.2. Quellesimages?
Une étude expérimentale doit distinguer deux types d’images très différents :
– les images incohérentes (c’est le cas des images vidéo ainsi que de la plupart des
photos satellitaires ou médicales) obtenues avec les sources de lumière naturelle ou
des rayonnement incohérents ;
– les images cohérentes, telles que celles obtenues par holographie, par imagerie
radar ou ultrasonore, en imagerie sismique.
Les premières sont obtenues par la sommation en énergie des radiations émises
par les divers objets associés dans un pixel élémentaire.
Les secondes sont formées de la sommation en amplitude complexe des rayonne-
ments issus des objets constituant un même pixel. Ces rayonnements, selon qu’ils sont
en phase ou en opposition de phase, créeront un pixel clair ou sombre, ces variations
dépendant moins des objets qui constituent le pixel que des conditions de propagation,
les termes de phase dépendant notamment de la géométrie d’observation. Ces images,
compte tenu de l’état de surface souvent grossier des objets à l’échelle de la longueur
d’onde incidente, sont généralement entachées d’un très important bruit appelé cha-
toiement (en radar), tavelure (en astronomie), granularité (en optique) et speckle en
anglais. Les propriétés statistiques des images cohérentes seront toujours très diffé-
rentes de celles des images incohérentes. Ce chapitre traite des images incohérentes,
les plus fréquentes. Les propriétés des images cohérentes seront cependant rappelées
lorsqu’elles sont bien connues.
Notre propos est aussi de cerner les propriétés des images en général, les images
usuellement rencontrées. Mais ces termes mêmes définissent mal notre objet, car ilPropriétés statistiques des images 19
Opéra Fillettes Vlsi
Figure 1.1. Troisimages « quelconques »
n’y a pas de normalité en image. Ils excluent cependant clairement des images trop
simples : le « carré blanc sur un fond blanc » des peintres, l’échiquier ou la grille,
ainsi que les images « pathologiques » représentant des motifs très particuliers (ro-
saces, mosaïques, etc.). Nous préciserons lorsque ce sera nécessaire ce qui peut être
normal ou anormal en traitement d’image. Retenons cependant que des images nor-
males forment l’essentiel des scènes en vidéo, des images satellitaires, des images
médicales, des images de robotique ou de microscopie.
1.2. L’amplitude
1.2.1. Propriétés
Nous représenterons l’image par une fonction soit continue, , soit discrète,
, des deux variables d’espace et ou et . Nous utiliserons également fré-
quemment la restriction monodimensionnelle obtenue par balayage ligne à ligne
que nous écrirons lorsqu’aucune ambiguïté ne sera à craindre. Nous limiterons
parfois les variables et à et pour rendre compte de la dimension finie des
images. Mais nous prendrons alors et très grands. Les propriétés les plus simples
auxquelles on s’intéresse tout d’abord sont liées à l’amplitude de l’image. Dans la plu-
part des cas, les images sont représentées sur 8 bits, parfois sur 10, 12 pour des images
de très bonne qualité ou, exceptionnellement, 16. La première description d’intérêt est
l’histogramme de l’amplitude qui exprime la fréquence d’apparition des divers ni-
veaux.
Les images étant constituées de très nombreux échantillons (entre 100 000 et plu-
sieurs millions), on invoque souvent le théorème central limite pour justifier l’hypo-
thèse que l’amplitude de l’image serait gaussienne. Cela n’est généralement pas vrai.
Les exemples de la figure 1.2 présentent des histogrammes typiques des trois images




















20 Le traitement des images
Figure 1.2. Leshistogrammes des 3 images de lafigure 1.1
de la figure 1.1. Ils sont quelconques et toute autre allure serait également possible :
l’histogramme d’une image n’est pas plus gaussien qu’uniforme.
1.2.2. Sensibilitéauxmodificationsd’histogrammes
On peut étudier plus en détail la dépendance de l’apparence de l’image à son his-
togramme. D’intéressants travaux ont ainsi été menés par Estournet [EST 69] qui a
fait réaliser plusieurs copies d’une même photo sur des supports variés : papiers pho-
tographiques de marques, de gradations et de duretés différentes. L’analyse de ces do-
cuments sur la figure 1.3 montre clairement de grandes différences d’histogrammes,
différences bien plus remarquables que celles qui affectent les images elles-même. Es-
tournet en déduit que l’histogramme de l’image, non seulement n’est pas significatif
de celle-ci (puisque de toute évidence beaucoup d’images auront des histogrammes
très voisins compte tenu de la faible dimension des histogrammes), mais aussi peut
être modifié artificiellement sans que l’aspect extérieur de l’image n’en soit beaucoup
affecté et surtout sans que la signification de l’image ne soit altérée.
Cette démarche peut être poussée plus loin. Est-il possible qu’une image ait un
histogramme quelconque? Pour répondre à cette question, nous allons utiliser un pro-
gramme qui modifie les niveaux de gris de l’image par un transcodage garantissant quePropriétés statistiques des images 21
Figure 1.3. Histogrammes d’une même image obtenus pour des présentations sur des papiers
de natures différentes : à gauche, dureté du papier, à droite,aspect du papier
(d’après [EST69])
l’image résultat aura un histogramme prédéterminé. Imposons-nous une contrainte
pour assurer que l’aspect de l’image demeurera assez inchangé : que les relations
d’ordre entre niveaux de gris ne soient pas perdues, c’est-à-dire que si et sont
deux niveaux de gris vérifiant
, alors on les transformera en et tels que
. Un tel programme est aisé à concevoir. Appliqué à des images, il donne
les résultats de la figure 1.4, où les histogrammes d’arrivée sont respectivement une
loi uniforme, une somme de 2 gaussiennes et une sinusoïde. Nous percevons, bien
sûr, des différences dans les images ainsi créées, mais les images demeurent parfai-
tement reconnaissables et leur interprétation n’en est pas affectée. Cette expérience
nous confirme le rôle très superficiel de l’histogramme dont l’allure n’est liée que de
très loin aux éléments significatifs de l’image.
Est ce que ces conclusions sont toujours valables ? Non bien sûr, puisque des
images très particulières peuvent avoir des histogrammes très spécifiques : un échi-
quier sera composé de deux pics et un texte noir sur blanc de deux modes nettement
séparés. Si nous prenons un champ de vagues très régulier ou un mur crépi, il est
possible également que l’on obtienne des histogrammes gaussiens.
Dans le cas des images obtenues avec des illuminations cohérentes, on peut mener
théoriquement le calcul de la loi de probabilité de l’amplitude réfléchie par une surface
uniforme rugueuse (hypothèse dite de « speckle pleinement développé » [GOO 76]).
On montre alors qu’on obtient, pour probabilité du module de l’amplitude complexe,
une loi de Rayleigh :
(1.1)
On vérifie sur l’image 1.5 que l’histogramme suit précisément ce modèle.















22 Le traitement des images
Figure 1.4. Modification d’histogramme. Enhaut à gauche : image originale;
en haut à droite: somme de 2 gaussiennes; en bas à gauche :sinusoïde;
en bas à droite: répartition uniforme.
1.3. Les sauts de l’amplitude
Définissons unsautd’amplitude comme la différence entre niveaux de gris de deux
pixels adjacents le long d’une ligne :


. La variable
varie généralement de -255 à +255. Etudions expérimentalement la probabilité de
.La figure 1.6 présente ces probabilités. Nous remarquons que :
– elles ont un maximum très marqué pour
, ce qui exprime que le saut nul
est le plus probable ;
– elles sont symétriques ;















Propriétés statistiques des images 23
Figure 1.5. Agrandissement d’une image de radar à vision latérale (radar ERS-1) sur une
région agricole de l’Ukraine ( c Cnes) montrant l’importance du bruit de cohérence et
histogramme de la scène complète, très proche d’une loi de Rayleigh.
– elles ont une décroissance très rapide et régulière.
Figure 1.6. Une image des gradients horizontaux d’un extraitde l’image « Fillettes»
(lavaleur 127 a été ajoutée à toute l’image pour l’affichage)
et 4 histogrammes de sauts de 4 images différentes
Au vu de ces courbes, il a été proposé de modéliser la probabilité du saut d’am-
plitude par une gaussienne de moyenne nulle, dont le seul paramètre, l’écart-type ,
est une caractéristique de l’image. La probabilité du saut de l’amplitude pourra alors
s’écrire :
(1.2)
Certaines images à transitions douces se caractérisent par une faible valeur de ,
d’autres par une forte. Ce domaine de variation de est typiquement de 3 à 15.

















24 Le traitement des images
Il est clair que des contre-exemples peuvent être aisément trouvés d’images dont
l’histogramme n’a pas les propriétés ci-dessus. Un dégradé régulier du blanc au noir
présenterait un histogramme non symétrique avec des valeurs uniformément réparties
dans le demi-espace gauche. Un échiquier ne présenterait que trois types de transitions
nulles, positives à +255 et négatives à 255. Ces exemples n’entrent bien sûr pas dans
nos hypothèses d’images normales.
1.4. La fonction d’autocorrélation
1.4.1. Aunedimension
Une autre grandeur est d’un grand intérêt pour les traiteurs de signaux, c’est la
fonction d’autocorrélation. A cela deux raisons : tout d’abord elle exprime d’une fa-
çon très complète les dépendances spatiales du signal, d’autre part elle permet un
accès commode au domaine de Fourier par l’intermédiaire du théorème de Wiener-
1Kinchine .
La fonction d’autocorrélation d’une fonction discrète est définie par :


(1.3)
où le symbole
exprime l’espérance mathématique de la variable aléatoire .La
fonction d’autocorrélation se calcule usuellement par :
(1.4)
Les images sont des signaux réels ( ). Ce sont des signaux positifs dont on
retire la valeur moyenne pour calculer la fonction d’autocorrélation centrée :
(1.5)

et on calcule une fonction d’autocorrélation normée centrée en rapportant cette fonc-
tion à son maximum (qui est également la variance de ):
. Le théorème de Wiener-Kinchine établit que la fonction d’autocorrélation est transformée de
Fourier (TF) du spectre de densité de puissance [BLA 81, REF 02].







































































Propriétés statistiques des images 25
(1.6)
(1.7)

Cette fonction dispose de nombreuses propriétés intéressantes :
– elle a un maximum à l’origine (égal à 1) ;
– elle est bornée à l’intervalle ;
– elle est paire (
);
– si elle possède un autre maximum égal à 1 en un autre point , alors elle possède
une infinité de maxima aux positions , et elle est périodique de période , ainsi que
la fonction elle-même ;
– il existe des relations simples entre les dérivées de la fonction d’autocorrélation
et les fonctions d’autocorrélation des dérivées de .
On présente sur la figure 1.7 la fonction d’autocorrélation d’une image pour des
décalages de 1 à 27 points. On note un maximum marqué à l’origine (souvent accom-
pagné d’une discontinuité de la dérivée), suivi d’une décroissance rapide et régulière.
Si l’on observe la décroissance de sur un plus long domaine, on constate que
ses amplitudes deviennent très faibles, exprimant une faible corrélation des pixels de
l’image très éloignés les uns des autres.
Figure 1.7. Agauche sont superposées lesvaleurs mesurées d’une fonction d’autocorrélation
(sur l’image « Lena ») à la loi exponentielle théorique la plus proche, à droite 5 fonctions de
corrélation d’images différentes.
Ce comportement très général a permis de modéliser la fonction d’autocorrélation
normée centrée par une fonction exponentielle :

































Un pour Un
Permettre à tous d'accéder à la lecture
Pour chaque accès à la bibliothèque, YouScribe donne un accès à une personne dans le besoin