Cours de Traitement d Image
23 pages
Français

Cours de Traitement d'Image

Le téléchargement nécessite un accès à la bibliothèque YouScribe
Tout savoir sur nos offres
23 pages
Français
Le téléchargement nécessite un accès à la bibliothèque YouScribe
Tout savoir sur nos offres

Description

Université de Picardie Jules Verne
Licence de Physique S6
Année Académique 2005-2006
CoursdeTraitementd’Image
Responsable du Cours : Yaovi GAGOU
Contact : yaovi.gagou@u-picardie.fr
1 Contents
1 Définition de l’image 1
1.1 En général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Echantillonnage de l’image continue . . . . . . . . . . . . . . . . . . . . . . 1
1.2.1 Peigne et Brosse de Dirac . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.2 Quantification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Formats d’images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.1 Images matricielles . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.2 Images vectorielles . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.4 Résolution d’une image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.4.1 Pavage ou tesselation . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4.2 Pavage ou tesselation . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4.3 Taille d’une image . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4.4 Couleur de l’image . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4.5 Quelques définitions . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4.6 Propriétés énergétiques . . . . . . . . . . . . . . . . . . . . . . . . . 6
2 Technologie de l’image numérique 6
2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ...

Sujets

Informations

Publié par
Nombre de lectures 1 052
Langue Français

Extrait

Université de Picardie Jules Verne Licence de Physique S6 Année Académique 2005-2006
Cours de Traitement d’Image
Responsable du Cours : Yaovi GAGOU Contact : yaovi.gagou@u-picardie.fr
1
Contents 1 Définition de l’image 1.1 En général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Echantillonnage de l’image continue . . . . . . . . . . . . . . . . . . . . . . 1.2.1 Peigne et Brosse de Dirac . . . . . . . . . . . . . . . . . . . . . . . 1.2.2 Quantification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Formats d’images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1 Images matricielles . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.2 Images vectorielles . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4 Résolution d’une image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.1 Pavage ou tesselation . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.2 Pavage ou tesselation . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.3 Taille d’une image . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.4 Couleur de l’image . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.5 Quelques définitions . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.6 Propriétés énergétiques . . . . . . . . . . . . . . . . . . . . . . . . .
2 Technologie de l’image numérique 2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Recadrage des valeurs de l’image traitrée . . . . . . . . . . . . . . . . . . . 2.3 Image en noir et blanc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Distribution de Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.1 Definition en 1D . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.2 Definition en 2D . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3 Transformation Géométrique 2D 3.1 Transformation eucliennes . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.1 Rotation et Translation . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.2 Homothétie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.3 Transformation Window-Viewport . . . . . . . . . . . . . . . . . . . 3.1.4 Zoom local autour d’un point sélectionné à la souris . . . . . . . . . 3.2 Convolution numérique bidimensionnelle . . . . . . . . . . . . . . . . . . . 3.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.2 Application à une image numérique . . . . . . . . . . . . . . . . . . 3.2.3 Application de masques . . . . . . . . . . . . . . . . . . . . . . . . 3.2.4 Masque de lissage . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Transformée de Fourier, Transformée de Fourier inverse . . . . . . . . . . .
2
1 1 1 2 2 3 3 3 3 4 4 4 5 5 6
6 6 7 7 7 7 7
8 8 8 8 9 10 10 10 10 11 11 11
3.3.1 Transformée de Fourier 2D . . . . . . . . . . . . . . . . . . . . . . . 3.3.2 Théorème de Parseval (2D) : . . . . . . . . . . . . . . . . . . . . . . 3.3.3 Transformée de Fourier discrète (TFD) : . . . . . . . . . . . . . . . 3.3.4 Transformée de Fourier discrète inverse : . . . . . . . . . . . . . . . 3.4 Traitement ou Pré-traitement . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.1 Restauration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.2 Amélioration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.3 Compression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.4 Quelques opérateurs de traitement . . . . . . . . . . . . . . . . . . 3.4.5 Segmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.6 Reconnaissance de formes . . . . . . . . . . . . . . . . . . . . . . . 3.4.7 Colorimétrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5 Filtrage de l’image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.1 Convolution et réponse impulsionnelle . . . . . . . . . . . . . . . . 3.5.2 Masque de convolution . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.3 Gradient d’image monochrome . . . . . . . . . . . . . . . . . . . . . 3.5.4 Transformée en Z, Transformée en Z inverse . . . . . . . . . . . . . 3.5.5 Particularités du filtrage en Traitement d’image . . . . . . . . . . . 3.5.6 Propriétés des filtres RIF . . . . . . . . . . . . . . . . . . . . . . . . 3.5.7 Filtrage discrêt 2D . . . . . . . . . . . . . . . . . . . . . . . . . . . June 18, 2006
3
11 12 12 12 12 12 13 13 13 14 14 14 15 16 16 17 17 18 18 19
TRAITEMENT D’IMAGE
1 Définition de l’image
1.1 En général C’est un signal de 2D (bidimensionnels) ou “3D (tridimentionnelle)”. L’image continue est associée à une fonction continue à 2 variables f ( x, y ) , x et y étant des variables d’espace, coordonnées d’un point sur l’écran par exemple. On s’interesse aujourd’hui aux Images discrètes obtenues par échantillonnage, f ( i, j ) avec i et j variables d’espace, désignant le pas d’échantillonnage, suivant x et suivant y respectivement.
1.2 Echantillonnage de l’image continue La représentation informatique d’une image est nécessairement discrète alors que l’image est de nature continue : le monde est continu. Certains capteurs effectuent une discréti-sation : c’est le cas des appareils photo numériques, des scanners. Si on regarde d’un peu plus près, la transformation d’un signal analogique 2D nécessite à la fois une discrétisation de l’espace : c’est l’échantillonnage, et une discrétisation des couleurs : c’est la quantification. L’image numérique est obtenue par échantillonnage (voir th. de Shannon). Elle connait un grand développement dans les année 1960; par les ordinateurs avec un calcul rapide (Transformée de Fourier rapide FFT = programme de calcul de TF en numérique). En pratique, on s’appuie sur conversion analogique/numérique et reciproquement (grâce aux différents filtres). On convolue le signal avec un peigne de Dirac de période fixée respectant la loi de Shannon (voir cours du traitement de signal).
1
1.2.1 Peigne et Brosse de Dirac Tandisque l’échantillonnage 1D s’effectue par produit de convolution d’impulsion de Dirac, l’échantillonnage 2D s’effectue par produit de concolution avec une brosse d’impulsions de Dirac. Nous nous interessons à l’expression des peignes de Dirac afin de détermin-erl’expression d’une brosse. En 2D le peigne en x est définit par : m =+ p x ( x, y ) = δ ( y ) P δ ( x m Δ x ) m = −∞ Rappel : Le peigne d’impulsion de Dirac en 1D s’écrit : m =+ p ( x ) = P δ ( x m Δ x ) , suivant x et une écriture équivalente suivant y. La brosse m = −∞ d’impulsion de Dirac en 2D s’écrira sous la forme : m =+ n =+ b ( x, y ) = P δ ( x m Δ x ) . P δ ( y n Δ y ) m = −∞ n = −∞ Le peigne étendu, en x est défini par : m =+ p x ( x, y ) = P δ ( x m Δ x ) . m = −∞ Cette expression se représente graphiquement par des bandes parallèles suivant y dis-tantes de Δ x suivant x et ne doit pas être confondu avec les le peigne à 1D suivant x qui se représentées par des impulsions identiques distantes de Δ x suivant x. La bosse est ainsi définie comme produit des deux peignes étendus : b ( x, y ) = p x ( x, y ) p y ( x, y ) Une image continue f(x,y) sera écahantillonnée par la brosse pour donner une image dis-crète g(x,y) définie par : g ( x, y ) = f ( x, y ) .b ( x, y ) La transformée de fourrier de l’image échantillonnée s’écrit alors sous la forme : G ( µ, ν ) = F ( µ, ν ) B ( µ, ν ) avec B ( µ, ν ) = P x ( µ, ν ) P y ( µ, ν )
1.2.2 Quantification Une fois l’image échantillonnée, l’étape suivante de la numérisation est celle de la quantifi-cation. Le débit binaire y est directement lié. Pour quantifier un signal, il faut définir une loi et une échelle de quantification. L’échelle de quantification a été fixée sur 256 niveaux, soit 8 bit, et la loi a été choisie linéaire. Pour le noir et blanc, 7 bit de quantification suffisent ; pour la couleur - à laquelle l’oeil est moins sensible - 6 bit de quantification suffisent, d’où le choix de travailler sur des octets. Cela satisfait à la fois les contraintes de la luminance et celles de la chrominance. De plus, un meilleur rapport signal/bruit est obtenu en choisissant une loi de compression logarithmique et le choix de cette loi linéaire peut paraître anormal. Mais le signal vidéo est déjà corrigé en g. En réalité, la loi de quantification n’est donc pas linéaire mais en 1/g (loi de weber sur la vision humaine) et permet de conserver un bon rapport signal/bruit (S/B) aux faibles niveaux de luminance. Rappelons que S/B = (6,02n + 1,76) où n est le nombre de bit.
2
1.3 Formats d’images On appelle ”bitmap” (BMP) le tableau contenant les couleurs de chaque pixel d’une image. Un fichier au format BMP contient une image non compressée. Il contient une entête de 54 octets (les paramétrages) puis les composantes RGB (Red-Green-Blue) de chaque pixel. Ainsi une fichier BMP pour une image 800 × 600 possède une taille de 1 440 054 octets. Pour économiser de la place, la plupart des images sont compressées sous les formats : GIF (Graphic Interchange Format) : format de compression sans perte; division environ par 5 de la taille du fichier initial JPEG (Joint Photo Expert Group) : compression avec perte mais permettant de diviser par 20 la taille du fichier initial. La compression des images au format JPEG supprime certaines informations qui ne peuvent être récupérées au moment de la dé-compression. La qualité de l’image peut donc être altérée. Il en existe des variantes : FPX (Flashpix), PCD (Photo CD), PNG (Portable Network Graphic), PSD (PhotoShop Document), PSP(Paint Shop Pro), TIF (Tagged Image File Format).
1.3.1 Images matricielles Les images matricielles : une image numérique est en fait une matrice (un tableau) de pixels.
1.3.2 Images vectorielles Le principe est de représenter, autant que cela est possible de le faire, les données de l’images par des formes géométriques qui vont pouvoir être décrites d’un point de vue mathématique. Ceci est commode pour les dilatations de l’image en conservant sa qualité.
1.4 Résolution d’une image La résolution d’une image est définie par un nombre de pixels par unité de longueur de la structure à numériser (classiquement en dpi (dots per inches) ou ppp (points par pouce)). Plus le nombre de pixels est élevé par unité de longueur de la structure à numériser, plus la quantité d’information qui décrit cette structure est importante et plus la résolution est élevée. La résolution d’une image numérique définit le degré de détail qui va être représenté sur cette image. Les phénomènes de numérisation dépendent des 2 équations suivantes : (X*résolution) = x pixels (Y*résolution) = y pixels où X et Y représente la taille (en pouces ou centimètres) de la structure à numériser,
3
résolution représente la résolution de numérisation, x et y représente la taille (en pixels) de l’image. La pixel (picture élement) est la taille du plus petit élément de l’image. Il désigne aussi un point de la matrice image. Le pixel peut avoir une dimension. C’est particulièrement vrai dans le cas des images médicales 3D où des mesures de volumes, par exemple. peuvent être effectuées. La taille d’un pixel est reliée au pas d’échantillonnage et champ de vue. Un pixel possède une valeur qui peut être un scalaire et représenter un niveau de gris, ou un vecteur représentant une couleur, ou tout autre chose. Les images dites en "noir et blanc" sont composées de pixels binaires noirs ou blancs (deux valeurs possibles). Les images en niveaux de gris sont composées de pixels de valeurs scalaires représentant la luminosité. Pour donner un ordre de grandeur, si un pixel est codé sur 8 bits (1 octet), on dispose de 28 = 256 couleurs ou niveaux de gris. En matlab , le pixel (1,1) est situé en haut à gauche de l’image. Une image est définie par : le nombre de pixels qui la compose en largeur et en hauteur, l’étendu des teintes de gris ou des couleurs que peut prendre chaque pixel (on parle de dynamique de l’image).
1.4.1 Pavage ou tesselation Les pixels sont généralement arrangés sous forme rectangulaire, dans un tableau 2D. Mais il peut exister également d’autres pavages ou tesselations comme, par exemple, le pavage hexagonal ou triangulaire ou le pavage rectangulaire en quinconce.
1.4.2 Pavage ou tesselation La distance euclidienne entre deux points P ( i, j ) et P ( k, l ) définie par d ( P ( i, j ) , P ( k, l )) = p ( k i ) 2 + ( l j ) 2 a l’avantage de ne privilégier aucun axe, ce qui n’est pas le cas de la distance par blocs (appelée également Manhattan distance en référence à l’île de Manhattan où il faut contourner différents pâtés de maisons (blocks) pour relier deux points : d ( P ( i, j ) , P ( k, l )) = | k i | + | l j | ; ou de la distance "tour d’échiquier"’: d ( P ( i, j ) , P ( k, l )) = max ( | k i | , | l j | ) les deux dernière expression de la distance présente des avantages au niveau des coûts de calcul.
1.4.3 Taille d’une image Une image de 1 pouce *1 pouce scannée à 100 dpi aura une taille ( x, y ) de 100 pixels sur 100 pixels c’est à dire (1*100)*(1*100) = 100 pixels sur 100 pixels. Remarque :
4
1 pouce = 2 , 54 cm 1 pouce = 25 , 40 mm = 100 pixels (dans le cas actuel) 1 inch = 2 , 54 cm = 1 pouce 1 f t = 12 inch
En général on utilise plutôt le pixel physique (ou l’écran). Ainsi, 1 pixel physique peut représenter plusieurs points sur l’image réelle ou inversement. Dans la suite on utilisant dans ce cours le pixel logique c’est à dire un élément iden-tifié par un couple (i,j), où i et j représentent les pas d’échantillonnage suivant x et y respectivement.
1.4.4 Couleur de l’image La couleur est un phénomène qui fait à la fois intervenir la physique de la matière, no-tamment les interactions des ondes électromagnétiques avec les matériaux physiques, et l’interprétation de ce phénomène physique par le système visuel constitué principalement de l’œil et du cerveau. On connaît le spectre de la lumière blanche mis en évidence par Isaac Newton en 1666 à partir de la dispersion de la lumière blanche par un prisme. Ce sont également les couleurs présentes dans l’arc-en-ciel, phénomène résultant de la dispersion de la lumière du soleil dans les gouttelettes d’eau (des nuages). ces longueurs d’onde se trouvent dans le visible (0 , 4 0 , 8 µm ) . Il existe aussi des systèmes optiques plus sensibles aux infrarouges, qu’aux longueurs d’onde du visible.
1.4.5 Quelques définitions La teinte est le nom de la couleur, c’est-à-dire de la longueur d’onde dominante. C’est une grandeur qui est repérable : on peut déterminer aisément la longueur d’onde dominante et donner un nom en fonction du spectre vu. La saturation ou indice de pureté représente l’inverse du degré de dilution de la couleur dans la lumière blanche. La luminosité est l’intensité de la lumière achromatique. Elle est mesurable et additive. L’unité de brillance est le candela par mètre carré ( cd.m 2 ) dont l’unité correspond à 10 nits.
5
1.4.6 Propriétés énergétiques La puissance instantanée est [ f ( x, y )] 2 , x et y étant des variables d’espace. Un point lumineux de l’écran est caractérisé par une fonction proportionnelle à [ f ( x, y )] 2 , énergie lumineuse. De gros travaux sur la compressions des images ont été réalisés en ces dernières années permettant d’améliorer la résolution de l’image.
2 Technologie de l’image numérique L’image numérique est obtenue à partir de l’échantillonnage. On utilise des cameras CCD (Charge coupled device) ou des scanners. La résolution spatiale est le nombre de pixels dans l’image. La densité de résolution est le nombre de pixels par unité de longueur (ppi ou dpi).
2.1 Généralités La couleur d’un pixel (point lumineux de l’écran) est composé de Rouge, Vert et Bleu. Chaque composante RVB est représentée par un entier compris entre 0 et 255 (codage 8 bits). L’entier 255 correspond à l’intensité maximale et 0 à l’abscence de la composante. Ainsi, nous pouvons décrire quelques couleurs dans le tableau suivant :
Pixels Couleur (255,0,0) rouge vif (100,0,0) rouge sombre (0,255,0) vert éclatant (255,255,255) blanc (0,0,0) noir Chaque composante d’une couleur peut être codée sur un octet. La couleur d’un pixel est donc donnée par 3 octets soit 24 bits et l’on peut ainsi former environ 16 millions de couleurs différentes. Une image de taille 800 × 600 (c’est-à-dire 800 colonnes et 600 lignes de pixels) en 24 bits occupe 800 × 600 × 3 = 1440000 octets . ATTENTION : dans un fichier BMP, le pixel de coordonnée (0, 0) correspond au coin inférieur gauche de l’image et le point de coordonnée (0, width-1) au coin inférieur droit.
6
2.2 Recadrage des valeurs de l’image traitrée Si l’on veut garder la conformité de l’image finale et de l’initiale il faut que ses valeurs soient compatible avec le codage des niveaux de gris. on utilise alors une variation linéaire : x = aX + b x est la valeur recadré, X la valeur originale. Soient X min et X max : les valeurs extrêms relevés dans l’image, x min et x max : la gamme dynamique des niveaux de gris, on a : ax max x min et bX max x min X min x max = = X max X min X max X min En 256 niveaux de gris de 0 à 255 (codage 8bits), on a : 255 X max X min et b = X m 2 ax 55 XX mimnin a =
2.3 Image en noir et blanc On passe en niveaux de gris on considérant comme seule composante la luminosité. Il existe plusieurs manières de convertir une image RVB en niveaux de gris. La plus simple rouge bl est de faire : gris =+ v 3 ert + eu . C’est aussi équivalent d’affecter la couleur gris à chacune des trois composantes com-posantes RVB. L’idéal est de faire ressortir la luminosité d’un pixel. Celle-ci vient principalement de la présence de la couleur verte. On emploi généralement les coefficients suivant : gris = 0 , 299 rouge + 0 , 587 vert + 0 , 114 bleu
2.4 Distribution de Dirac 2.4.1 Definition en 1D R + δ ( x ) f ( x ) dx = f (0) La fonction δ représente la limite lorsque T 0 de la fonction T 1 T ( t ) , ∀| x | ≤ T 2 , et où π T désigne le fonction porte de largeur T. 2.4.2 Definition en 2D En 2D la distribution de Dirac est définie à partir sa propriété équivalente : R + R + δ ( x, y ) f ( x, y ) dxdy = f (0 , 0) relier à sa definition comme limite lorsque T 0 de T 1 2 , ∀| x | ≤ T 2 , ∀| y. | ≤ T 2
7
3 Transformation Géométrique 2D On désigne par transformations géométriques 2D l’ensemble des trans formations dans le plan pouvant être appliquées à une pixel de l’image, sans considération d’intensité. Bien entendu on doit savoir les appliquer à l’image de façon à remonté à l’image initiale aprrès les transformations inverses.
3.1 Transformation eucliennes 3.1.1 Rotation et Translation La rotaion et la translation ermettent de conserver les distance et les angles. La rotation de cente C ( x 0 , y 0 ) et d’angle θ permet de passer du pixel ( x, y ) au pixel ( x 0 , y 0 ) défini par: ( xy 00 == yx 00 +(( xx xx 00 )) scions (( θθ ))++(( yy yy 00 )) csoisn (( θθ )) La rotation inverse permet de revenir à la position exacte de départ. La translation de vecteur ( t x , t y ) donne de la pixel ( x, y ) de l’image, une pixel ( x 0 , y 0 ) définie par : ( x 00 == yx ++ tt yx y Les autres transformations reversible sont des combinaisons d’une translation est d’une rotation. Ces transformations rigides !ont pour but de rectifier les déformations et distor-sion de l’image.
3.1.2 Homothétie Les homothéties sont les changements d’échelles suivant x et y à partir d’une origine don-née. On les qualifie souvent de "ZOOM" . Une homothétie de rapport λ x et λ y par rapport à une origine fixe, s’exprime sous la forme : ( xy 00 == λλ yx ..yx Pour exprimer une homothétie de centre M 0 , on effectue tout d’abord une translation à l’origine du repère puis on effectue une homotéthie de centre 0 suivie d’une trans lation opposée à la première :
8
  • Univers Univers
  • Ebooks Ebooks
  • Livres audio Livres audio
  • Presse Presse
  • Podcasts Podcasts
  • BD BD
  • Documents Documents