La lecture à portée de main
Découvre YouScribe en t'inscrivant gratuitement
Je m'inscrisDécouvre YouScribe en t'inscrivant gratuitement
Je m'inscrisDescription
Sujets
Informations
Publié par | Hermès - Editions Lavoisier |
Date de parution | 30 octobre 2009 |
Nombre de lectures | 21 |
EAN13 | 9782746240667 |
Langue | Français |
Poids de l'ouvrage | 2 Mo |
Informations légales : prix de location à la page 0,0450€. Cette information est donnée uniquement à titre indicatif conformément à la législation en vigueur.
Extrait
Outils pour la compression des signaux
Cet ouvrage appartient à la Collection Télécom (précédemment Collection Technique et
Scientifique des Télécommunications (CTST)), publiée sous l’égide de l’Institut Télécom,
avec le soutien de Orange Labs. Cette collection rend compte des derniers développements
dans l’ensemble des domaines des sciences et technologies de l’information et de la
communication.
Illustration de couverture réalisée par l’atelier Isatis.
© Institut Télécom et LAVOISIER, Paris, 2009
LAVOISIER
11, rue Lavoisier
75008 Paris
www.hermes-science.com
www.lavoisier.fr
ISBN 978-2-7462-2458-2
ISSN 0221-2579
Le Code de la propriété intellectuelle n’autorisant, aux termes de l’article L. 122-5, d’une
part, que les "copies ou reproductions strictement réservées à l’usage privé du copiste et non
destinées à une utilisation collective" et, d’autre part, que les analyses et les courtes citations
dans un but d’exemple et d’illustration, "toute représentation ou reproduction intégrale, ou
partielle, faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause, est
illicite" (article L. 122-4). Cette représentation ou reproduction, par quelque procédé que ce
soit, constituerait donc une contrefaçon sanctionnée par les articles L. 335-2 et suivants du
Code de la propriété intellectuelle.
Tous les noms de sociétés ou de produits cités dans cet ouvrage sont utilisés à des fins
d’identification et sont des marques de leurs détenteurs respectifs.
Printed and bound in England by Antony Rowe Ltd, Chippenham, October 2009.
Outils
pour la compression
des signaux
applications aux signaux audio
S
Nicolas Moreau
Collection Télécom
dirigée par Pierre-Noël FAVENNEC
Comité scientifique de la collection
Président : Claude GUEGUEN
Michel ALLOVON – Orange Labs
Chantal AMMI – Télécom Ecole de management
Annie BLANDIN – Télécom Bretagne
Jean-Pierre COCQUEREZ – UTC, GDR ISIS
Frédérique DE FORNEL – ICB, GDR Ondes
Gérard EUDE – Orange Labs
Georges FICHE – APAST
Alain HILLION – Télécom Bretagne
René JOLY – Télécom ParisTech
Henri MAITRE – Télécom ParisTech
Chantal MORLEY – Télécom SudParis
Gérard POGOREL – Télécom ParisTech
Gérard POULAIN – APAST
Serge PROULX – UQAM Montreal
Nicolas PUECH – Télécom ParisTech
Guy PUJOLLE – UPMC
Pierre ROLIN – Télécom SudParis
Basel SOLAIMAN – Télécom Bretagne
Sami TABBANE – SupCom Tunis
Joe WIART – Orange Labs
http://ctst.institut-telecom.fr Table des matières
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
PREMIÈRE PARTIE. OUTILS POUR LA COMPRESSION DES SIGNAUX . . . 15
Chapitre 1. Quantification scalaire . . . . . . . . . . . . . . . . . . . . . . . . 17
1.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2. Quantification scalaire optimale . . . . . . . . . . . . . . . . . . . . . . . 19
1.2.1. Conditions nécessaires d’optimalité . . . . . . . . . . . . . . . . . 19
1.2.2. Puissance de l’erreur de quantification . . . . . . . . . . . . . . . . 21
1.2.3. Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.2.3.1. Algorithme de Lloyd-Max . . . . . . . . . . . . . . . . . . . 24
1.2.3.2. Transformation non-linéaire . . . . . . . . . . . . . . . . . . 24
1.2.3.3. Facteur d’échelle . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.3. Quantification scalaire prédictive . . . . . . . . . . . . . . . . . . . . . . 25
1.3.1. Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.3.2. Quelques rappels sur la théorie de la prédiction linéaire . . . . . . 26
1.3.2.1. Introduction : minimisation au sens des moindres carrés . . 26
1.3.2.2. Approche théorique . . . . . . . . . . . . . . . . . . . . . . . 27
1.3.2.3. Comparaison des deux approches . . . . . . . . . . . . . . . 28
1.3.2.4. Filtre blanchissant . . . . . . . . . . . . . . . . . . . . . . . . 29
1.3.2.5. Algorithme de Levinson . . . . . . . . . . . . . . . . . . . . . 30
1.3.3. Gain de prédiction . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.3.3.1. Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.3.4. Valeur asymptotique du gain de prédiction . . . . . . . . . . . . . 32
1.3.5. Quantification scalaire prédictive en boucle fermée . . . . . . . . 34
Chapitre 2. vectorielle . . . . . . . . . . . . . . . . . . . . . . 37
2.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.2. Formalisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
56 Outils pour la compression des signaux
2.3. Construction du dictionnaire optimal . . . . . . . . . . . . . . . . . . . . 39
2.4. Performances du quantificateur optimal . . . . . . . . . . . . . . . . . . 42
2.5. Utilisation du . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.5.1. Quantification vectorielle arborescente . . . . . . . . . . . . . . . . 45
2.5.2. v par produit cartésien . . . . . . . . . . . 45
2.5.3. vectorielle de type gain–forme . . . . . . . . . . . . 45
2.5.4. Quantification v multi-étages . . . . . . . . . . . . . . . . 45
2.5.5. vectorielle par transformée . . . . . . . . . . . . . . 46
2.5.6. v algébrique . . . . . . . . . . . . . . . . . 46
2.6. Quantification vectorielle de type gain–forme . . . . . . . . . . . . . . . 47
2.6.1. Règle du plus proche voisin . . . . . . . . . . . . . . . . . . . . . . 47
2.6.2. Algorithme de Lloyd-Max . . . . . . . . . . . . . . . . . . . . . . . 48
Chapitre 3. Codage par transformée, en sous-bandes . . . . . . . . . . . . . 51
3.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.2. Equivalence entre bancs de filtres et transformées . . . . . . . . . . . . 52
3.3. Allocation de bits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.3.1. Définition du problème . . . . . . . . . . . . . . . . . . . . . . . . 54
3.3.2. Allocation de bits optimale . . . . . . . . . . . . . . . . . . . . . . 55
3.3.3. Algorithme pratique . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.3.4. Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.4. Transformation optimale . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.5. Performances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.5.1. Gain de transformation . . . . . . . . . . . . . . . . . . . . . . . . 62
3.5.2. Résultats de simulation . . . . . . . . . . . . . . . . . . . . . . . . 65
Chapitre 4. Codage entropique . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.2. Codage sans bruit d’une source discrète sans mémoire . . . . . . . . . . 68
4.2.1. Entropie d’une source . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.2.2. Codage d’une . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.2.2.1. Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.2.2.2. Code instantané uniquement décodable . . . . . . . . . . . . 71
4.2.2.3. Inégalité de Kraft . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.2.2.4. Code optimal . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.2.3. Théorème du codage sans bruit d’une source discrète sans mémoire 74
4.2.3.1. Proposition 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.2.3.2. 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.2.3.3. Proposition 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.2.3.4. Théorème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.2.4. Construction d’un code . . . . . . . . . . . . . . . . . . . . . . . . 76
4.2.4.1. Code de Shannon . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.2.4.2. Algorithme de Huffman . . . . . . . . . . . . . . . . . . . . . 77Table des matières 7
4.2.4.3. Premier exemple . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.2.5. Généralisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.2.5.1. Théorème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.2.5.2. Deuxième exemple . . . . . . . . . . . . . . . . . . . . . . . . 79
4.2.6. Codage arithmétique . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.3. Codage sans bruit d’une source discrète avec mémoire . . . . . . . . . . 81
4.3.1. Nouvelles définitions . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.3.2. Théorème du codage sans bruit d’une source discrète avec mémoire 82
4.3.3. Exemple d’une source markovienne . . . . . . . . . . . . . . . . . 83
4.3.3.1. Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.3.3.2. Exemple de la transmission de documents par télécopie . . . 84
4.4. Quantificateur scalaire avec contrainte entropique . . . . . . . . . . . . 86
4.4.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.4.2. Quantificateur de Lloyd-Max . . . . . . . . . . . . . . . . . . . . . 88
4.4.3. avec contrainte entropique . . . . . . . . . . . . . . 90
4.4.3.1. Expression de l’entropie . . . . . . . . . . . . . . . . . . . . . 91
4.4.3.2. Inégalité de Jensen . . . . . . . . . . . . . . . . . . . . . . . . 92
4.4.3.3. Quantificateur optimal . . . . . . . . . . . . . . . . . . . . . . 93
4.4.3.4. Source gaussienne . . . . . . . . . . . . . . . . . . . . . . . . 93
4.5. Capacité d’un canal discret sans mémoire . . . . . . . . . . . . . . . . . 94
4.5.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.5.2. Information mutuelle . . . . . . . . . . . . . . . . . . . . . . . . . . 95
4.5.3. Théorème de codage pour un canal bruité . . . . . . . . . . . . . . 97
4.5.4. Exemple : canal binaire symétrique . . . . . . . . . . . . . . . . . 97
4.6. Codage d’une source discrète avec u