Cet ouvrage fait partie de la bibliothèque YouScribe
Obtenez un accès à la bibliothèque pour le lire en ligne
En savoir plus

Fusión de imágenes multiespectrales y pancromáticas: nuevas alternativas metodológicas basadas en las transformaciones wavelet discretas empleando el algoritmo de Mallat.

De
12 pages
Resumen
Por su naturaleza complementaria, la fusión de imágenes multiespectrales y pancromáticas es una técnica cada vez más utilizada para obtener imágenes de alta resolución espectral y espacial. Probablemente, los métodos de fusión más empleados sean los basados en las transformaciones IHS y el ACP. El mayor inconveniente de estos métodos es que tienden a modificar la información espectral de la imagen multiespectral original. En ocasiones, por la utilidad que se desea dar a la imagen fusionada, tal variación de información no es asumible. En este artículo se presentan nuevas alternativas metodológicas que incorporan las transformaciones wavelet discretas al proceso de fusión de imágenes mediante métodos basados en las transformaciones IHS o el ACP, que permiten minimizar el problema antes citado. La validez de los diferentes métodos de fusión se estima a través del análisis de la calidad espectral y espacial del resultado de la fusión de imágenes SPOT 4 XI (20m) e IRS PAN (5m) captadas en distinta época y año, y correspondientes a la zona de regadío de Villafranca-Cadreita en Navarra.
Abstract
Because of its complementary nature, multispectral and panchromatic image fusion is becoming a widely used technique to obtain high spectral and spatial resolution images. Some of the most popular imagefusion methods are those based on the IHS transformation and the PCA. The main drawback of these methods is the high distortion of the original spectral information that the resulting multispectral images present. In this article we present new fusion alternatives methods based on the IHS transform or the PCA, using the discrete wavelet transform. These methods allow to minimize the spectral distortion problem. We have used these fusion methods, as well as standard IHS and PCA methods to merge SPOT 4 XI and IRS PAN images collected on different year and season and corresponding to the Villafranca-Cadreita irrigated area, in Navarre (Spain). We have estimated the validity of each fusion method by analyzing, both visually and quatitatively, the spectral and spatial quality of the resulting fused images.
Voir plus Voir moins

Revista de Teledetección. 2002. 18: 63-73.
Fusión de imágenes multiespectrales y pancromáti-
cas: nuevas alternativas metodológicas basadas en
las transformaciones wavelet discretas empleando
el algoritmo de Mallat
M. González-Audícana, R. García y A. Seco
Correo electrónico: audicana@unavarra.es
Departamento de Proyectos e Ingeniería Rural. Universidad Pública de Navarra.
Campus Arrosadía s/n 31006 Pamplona
RESUMEN ABSTRACT
Por su naturaleza complementaria, la fusión de Because of its complementary nature, multispectral
imágenes multiespectrales y pancromáticas es una and panchromatic image fusion is becoming a widely
técnica cada vez más utilizada para obtener imágenes used technique to obtain high spectral and spatial
de alta resolución espectral y espacial. Proba- resolution images. Some of the most popular image-
blemente, los métodos de fusión más empleados sean fusion methods are those based on the IHS transfor-
los basados en las transformaciones IHS y el ACP. El mation and the PCA. The main drawback of these
mayor inconveniente de estos métodos es que tienden methods is the high distortion of the original spectral
a modificar la información espectral de la imagen information that the resulting multispectral images
multiespectral original. En ocasiones, por la utilidad present.
que se desea dar a la imagen fusionada, tal variación In this article we present new fusion alternatives
de información no es asumible. methods based on the IHS transform or the PCA,
En este artículo se presentan nuevas alternativas using the discrete wavelet transform. These methods
metodológicas que incorporan las transformaciones allow to minimize the spectral distortion problem.
wavelet discretas al proceso de fusión de imágenes We have used these fusion methods, as well as
mediante métodos basados en las transformaciones standard IHS and PCA methods to merge SPOT 4 XI
IHS o el ACP, que permiten minimizar el problema and IRS PAN images collected on different year and
antes citado. season and corresponding to the Villafranca-Cadreita
La validez de los diferentes métodos de fusión se irrigated area, in Navarre (Spain).
estima a través del análisis de la calidad espectral y We have estimated the validity of each fusion met-
espacial del resultado de la fusión de imágenes SPOT hod by analyzing, both visually and quatitatively, the
4 XI (20m) e IRS PAN (5m) captadas en distinta spectral and spatial quality of the resulting fused
época y año, y correspondientes a la zona de regadío images.
de Villafranca-Cadreita en Navarra.
PALABRAS CLAVE: fusión, algoritmo de Mallat, KEY WORDS: image-fusion, Mallat’s algorithm,
transformación wavelet, IHS, ACP. wavelet transform, IHS, PCA.
En las últimas décadas, se han intentado emularINTRODUCCIÓN
muchas de estas capacidades para combinar datos
de múltiples sensores y obtener, de este modo,La fusión de información captada por distintos
información que no está disponible al operar consensores es una habilidad o capacidad natural de
un único sensor de forma individual. Para hacermuchos seres vivos. Éstos, combinan de forma
referencia a este concepto de combinación denatural datos (imágenes, sonidos, olores…) recogi-
datos procedentes de distintas fuentes, se empleandos por distintos sensores (ojos, oídos, nariz…),
términos como “multiresolution correlation”,con el fin de tener conocimiento del entorno que les
“multisource integration” o “data fusion” entrerodea y de los hechos o eventos que ocurren en ese
otros.entorno.
N.º 18 - Diciembre 2002 63M. González-Audícana, R. García y A. Seco
Este trabajo se centra en la fusión de un determi- ción y las transformaciones wavelet, que permiten
nado tipo de datos, imágenes espaciales y más con- minimizar el problema anteriormente citado.
cretamente, imágenes captadas por sensores que En este artículo se presentan alternativas metodo-
operan a distinta resolución espacial y espectral. lógicas que incorporan las transformaciones wave-
Debido a condicionantes propios del diseño de los let discretas al proceso de fusión de imágenes
sensores, existe una relación inversa entre la reso- mediante métodos clásicos basados en las transfor-
lución espacial y espectral de éstos. En general, los maciones IHS y el ACP.
sensores con alta resolución espectral, que se carac- Tanto los procedimientos clásicos de fusión como
terizan por captar radiancia procedente de distintas nuevos procedimientos aquí propuestos, se emplean
cubiertas en un número elevado de bandas del para fusionar imágenes SPOT 4 XI e IRS-1D PAN,
espectro electromagnético, no presentan una resolu- captadas en noviembre de 1999 y junio de 2000 res-
ción espacial óptima y viceversa. pectivamente, y correspondientes a la zona de rega-
Disponer de imágenes de alta resolución espec- dío de Villafranca-Cadreita (Navarra).
tral y espacial es importante cuando se acometen La validez o utilidad de cada método de fusión se
estudios en zonas urbanas, zonas forestales hetero- ha evaluado a través del análisis de la calidad
géneas o zonas agrícolas muy parceladas. Por un espectral y espacial de las imágenes fusionadas
lado, una alta resolución espectral facilita la dife- resultantes. Estos análisis de calidad se han llevado
renciación o discriminación de cubiertas. Por otro a cabo comparando, visual y cuantitativamente, las
lado, es necesaria una alta resolución espacial para imágenes fusionadas con la multiespectral y pan-
poder delimitar de forma precisa la superficie ocu- cromática originales (SPOT 4 XI e IRS-1D PAN
pada por cada cubierta, así como para localizar dis- respectivamente).
tintas estructuras o accidentes del terreno. Las nuevas propuestas metodológicas presenta-
Para Yocky (1995), la combinación de imágenes das en este trabajo, basadas en el empleo de las
de distinta resolución constituye una nueva técnica transformaciones wavelet discretas, permiten obte-
de procesamiento, denominada “fusión de imáge- ner imágenes fusionadas de mayor calidad que los
nes”, cuyo principal objetivo es la mejora aparente métodos clásicos de fusión.
de las imágenes, así como el aumento de la fiabili-
dad de su interpretación (Pohl y VanGenderen,
1998). MÉTODOS CLÁSICOS DE FUSIÓN
Debido a su naturaleza, la fusión de imágenes
multiespectrales y pancromáticas es una solución Para que dos imágenes puedan fusionarse es
ampliamente utilizada para la obtención de imáge- necesario que sean perfectamente superponibles,
nes de alta resolución espectral y espacial. Proba- por lo que tanto la imagen multiespectral como la
blemente, los métodos de fusión más empleados pancromática se corrigen geométricamente. El pro-
sean los basados en las transformaciones Intensi- ceso de corrección de la imagen multiespectral se
dad-Tono-Saturación (IHS) (Haydn et al., 1982; utiliza además para remuestrearla con el fin de
Welch y Ehlers, 1987; Carper et al., 1990; Ehlers, igualar el tamaño de píxel de esta imagen al de la
1991) así como los basados en el análisis de com- imagen pancromática.
ponentes principales (ACP) (Chavez et al., 1991). Tanto el método de fusión IHS como el ACP se
El mayor inconveniente de estos métodos de fusión, basan en el mismo principio: disociar la informa-
genéricamente denominados de Sustitución de ción espacial de una imagen multiespectral de su
Componentes (Shettigara, 1992), es la distorsión información espectral, aplicando transformaciones
espectral que presentan las imágenes fusionadas lineales.
resultantes respecto a la imagen multiespectral ori-
ginal. En ocasiones, por la utilidad que se desea dar
a las imágenes fusionadas, tal distorsión o variación Método IHS
de información espectral no es asumible.
En los últimos años, distintos investigadores En general, el color de un determinado píxel se
(Yocky, 1995; Gauguet-Duport et al., 1996; Zhou et define en función de sus componentes, es decir, en
al., 1998; Nuñez et al, 1999; Wald et al., 1997; función de su contenido de Rojo, Verde y Azul. De
Ranchin y Wald, 2000) han propuesto nuevos méto- forma alternativa, puede representarse el color de
dos de fusión basados en el análisis multirresolu- un píxel en función no de sus componentes, sino de
64 N.º 18 - Diciembre 2002Fusión de imágenes multiespectrales y pancromáticas: nuevas alternativas...
sus propiedades, es decir, en función de su Intensi- Método ACP
dad (I), Tono (H) y Saturación (S).
La amplia utilización de estas transformaciones La mayoría de los sensores multiespectrales reco-
para fusionar imágenes reside en el hecho de que gen información en bandas adyacentes del espectro
las transformaciones IHS logran desacoplar la electromagnético lo que habitualmente implica
información espectral de una composición RGB en detectar información redundante, ya que muchas de
las componentes H y S, y aíslan en la componente I las cubiertas existentes sobre la superficie terrestre
gran parte de la información espacial (Pohl y Van tienden a presentar comportamientos similares en
Genderen, 1998). regiones próximas del espectro.
Se han desarrollado diversos algoritmos que per- En este contexto, el ACP permite sintetizar las
miten convertir los valores tricromáticos RGB a bandas originales creando nuevas bandas, los com-
valores de IHS. Además del tiempo de procesa- ponentes principales (CP), que recogen y reorgani-
miento, estos algoritmos se diferencian en la meto- zan la información original.
1dología empleada para calcular el valor de la com- En general, la primera componente principal (CP )
ponente I. recoge información común a todas las bandas utili-
Independientemente del algoritmo seleccionado, zadas como datos de entrada en el ACP, es decir, la
la transformación IHS se aplica siempre a composi- información espacial, mientras que la información
ciones RGB lo que implica que la fusión sólo se espectral propia de cada una de las bandas se recoge
podrá realizar para tres bandas de la imagen mul- en el resto de componentes principales (Chavez y
tiespectral. Como resultado de esta transformación Kwarteng, 1989). Esto hace que el ACP se presente
se obtienen las nuevas imágenes de I, H y S. Tal y como una técnica muy apropiada para la fusión de
como muestra la Figura 1, la componente I se sus- imágenes multiespectrales y pancromáticas.
tituye por la imagen pancromática cuyo histograma En este caso, todas las bandas de la imagen mul-
previamente se ha igualado al de la imagen I, con el tiespectral original constituyen los datos de entrada
fin de minimizar la distorsión espectral en la ima- para el ACP. Como resultado de este análisis se
gen fusionada. La transformación IHS inversa per- obtienen nuevas bandas, no correlacionadas entre
mite obtener la imagen RGB fusionada, a la que se sí, los componentes principales. La primera compo-
ha incorporado el detalle espacial de la imagen pan- nente es reemplazada por la imagen pancromática,
cromática. cuyo histograma previamente se ha igualado al de
la primera componente principal. Finalmente, tal y
como se aprecia en la Figura 2, se aplica el análisis
-1inverso (ACP ) al conjunto de datos formado por la
2 3imagen pancromática modificada y los CP , CP ,
4CP y se obtienen las nuevas bandas fusionadas a
las que se ha incorporado el detalle de la imagen
pancromática.
MÉTODOS MEJORADOS: MÉTODO
AWI, SWI, AWPC y SWPC
Cuando se emplean, para la fusión de imágenes
multiespectrales y pancromáticas, métodos basados
en las transformaciones IHS y el ACP clásicos, se
asume que estas transformaciones permiten diso-
ciar la información espectral y espacial de las imá-
genes multiespectrales a las que se aplican. Esta
hipótesis nunca se cumple de forma absoluta. De
2hecho, las componentes Tono, Saturación y los CP
nal CP llevan asociada información espacial delFigura 1. Fusión de imágenes SPOT 4 XI e IRS-ID PAN
1mismo modo que las imágenes Intensidad y CPutilizando el método sustitutivo basado en las transforma-
ciones IHS. siempre llevan asociada cierta información espec-
N.º 18 - Diciembre 2002 65M. González-Audícana, R. García y A. Seco
tral. Por ello, es habitual que la información espec- estructuras de mayor tamaño mientras que a resolu-
tral de las imágenes fusionadas difiera de la de la ciones más detalladas, esta información correspon-
multiespectral original, especialmente si las imáge- de a las estructuras de menor tamaño
nes a fusionar han sido captadas en distintas fechas El concepto de análisis multirresolución se deriva
La calidad espectral y espacial de las imágenes de la idea de algoritmos piramidales empleada por
fusionadas obtenidas utilizando los métodos IHS y primera vez por Burt y Adelson (1983), quienes
ACP podría mejorar sustancialmente si en lugar de emplearon estos algoritmos para analizar el detalle
1sustituir los componentes Intensidad y CP por la de señales a diferentes resoluciones. Con el fin de
imagen pancromática, se introdujera en estas com- facilitar los cálculos, Burt y Adelson trabajaron con
ponentes sólo el detalle espacial de la imagen pan- resoluciones decrecientes diádicas. También Mallat
cromática que no está presente en la multiespectral. utiliza este factor de degradación.
Esta es la idea central de las alternativas metodoló- Para poder comprender el concepto de análisis
gicas presentadas en este artículo. multirresolución aplicado a datos bidimensionales
Tanto la extracción del detalle de la imagen pan- es muy útil imaginar una pirámide: la base de la
cromática como su incorporación a las componen- pirámide representa la imagen original, con ‘f’ filas
1tes Intensidad o CP se realiza empleando el análi- y ‘c’ columnas. Cada nivel de la pirámide, al que se
sis multirresolución propuesto por Mallat (1989). accede desde el nivel inmediatamente inferior, es
una aproximación de la imagen original. Se cumple
que en cada nivel N la imagen aproximación
N Ntiene‘f/2 ’ filas y ‘c/2 ’ columnas, es decir, confor-
me se asciende de escalón o nivel en la pirámide,
las sucesivas aproximaciones van teniendo cada
vez menor resolución.
Cada una de estas aproximaciones se obtienen
utilizando funciones de escala. Éstas son funciones
asociadas a la Wavelet Madre c(x) que permiten
analizar los datos a diferentes resoluciones.
2Una Wavelet Madre es una función c(x) e L (R),
,es decir, que cumple que
^, donde c(x)es la trans-
formada de Fourier de c(x). Por lo tanto, es una
función oscilante, su integral es nula y decae rápi-
damente a medida que ⁄x ⁄→ ∞.
Figura 2. Fusión de imágenes SPOT 4 XI e IRS-ID PAN Las funciones wavelet se generan a partir de
utilizando el método sustitutivo basado en el ACP. dilataciones y traslaciones de la función Wavelet
Madre c(x) según
Análisis Multirresolución y Transformaciones
Wavelet
donde a,b e R y a>0. El parámetro a se denomina
El análisis multirresolución permite descomponer factor de dilatación y el factor b, de traslación.
datos bidimensionales en componentes de distinta La construcción de familias wavelet ha sido obje-
frecuencia y estudiar cada componente a una reso- to de numerosas publicaciones. Son muy conocidas
lución acorde con su escala. A diferente resolución, y utilizadas las desarrolladas por Meyer (1990),
el detalle de una imagen caracteriza diferentes es- Daubechies (1992) y Cohen et al (1992). Cada
tructuras físicas de la escena (Mallat, 1989); a reso- familia conduce a descomposiciones diferentes con
luciones groseras, este detalle corresponde a las propiedades diferentes.
66 N.º 18 - Diciembre 2002Fusión de imágenes multiespectrales y pancromáticas: nuevas alternativas...
Las funciones de escala se obtienen de forma lizar los datos de baja frecuencia, mientras que el
similar a las funciones wavelet filtro g, asociado a la función wavelet es un filtro
unidimensional de paso alto que permite analizar
los componentes de alta frecuencia, es decir, el
detalle espacial de la imagen
donde j y k son números enteros y la familia de fun- El número de coeficientes de estos filtros así
ciones 5f (x)6 constituyen una base ortonormal. como el valor de los mismos depende de la funciónj,k
La aproximación de una función bidimensional Wavelet Madre que se utilice. En este trabajo, se ha
jde energía finita f(x,y) a resolución 2 , se obtiene empleado como función Wavelet Madre la wavelet
por la siguiente convolución: de Daubechies ‘db4’ que da lugar a filtros unidi-
mensionales de cuatro coeficientes (Daubechies,
1992). Los coeficientes de los filtros asociados a la
función wavelet seleccionada y a su correspondien-
donde m y n son números enteros, f(x) es la fun- te función de escala son:
j j
jción de escala unidimensional y f (x) = 2 f (2 x).2
La diferencia de información existente entre dos
escalones sucesivos de la pirámide, por ejemplo
j+1+1j jentre las imágenes A f a resolución 2 y A f a2 2
jresolución 2 , la dan las transformaciones wavelet,
y se obtiene por las siguientes convoluciones:
Métodos AWI, SWI, AWPC y SWPC
La idea central de las nuevas alternativas metodo-
lógicas propuestas en este trabajo es insertar en las
1donde m y n son números enteros, c(x) es la función componentes Intensidad y PC únicamente la infor-
j j 1
jwavelet unidimensional y c (x) = 2 c (2 x). D j f, mación espacial de la imagen pancromática que no2 2
2 3D j f y D j f se denominan coeficientes wavelet o está presente en la multiespectral en lugar de sustituir2 2
coeficientes de detalle y recogen el detalle horizo- estas componentes por toda la imagen pancromática.
nal, vertical y diagonal (altas frecuencias) que se Tanto para extraer de la imagen pancromática el
pierde al pasar de una imagen aproximación de detalle espacial no presente en la multiespectral
j+1 j +1jresolución 2 a 2 . Si la imagen aproximación A f como para introducir este detalle en las componentes2
1 1
jtienen ‘f’ filas y ‘c’ columnas, cada imagen A f, D j f, Intensidad y CP , se emplean las transformaciones2 2
2 3D j f y D j f, y tendrá ‘f/2’ filas y ‘c/2’ columnas. wavelet discretas basadas en el algoritmo de Mallat.2 2
Si el proceso se invierte, la imagen original podrá A continuación se muestra el procedimiento a
reconstruirse exactamente a partir de una imagen seguir para fusionar imágenes multiespectrales y
aproximación y todos los planos wavelet o coefi- pancromáticas empleando métodos IHS o ACP
cientes de detalle horizontal, vertical y diagonal que mejorados, aplicado al caso SPOT 4 XI e IRS-1D
recojan la diferencia de información entre la ima- PAN, en el que el ratio de resolución espacial entre
gen aproximación y la imagen original, es decir, las imágenes a fusionar es 4:1.
+1j jA f podrá reconstruirse exactamente a partir de A 0. Georreferenciar u ortorectificar las imágenes a2 2
1 2 3f, D j f, D j f y D j f. fusionar, remuestreando la imagen multiespectral2 2 2
La implementación practica de la transformación para conseguir que sea perfectamente superponible
wavelet discreta asociada al análisis multirresolu- a la pancromática, es decir, remuestrear la imagen
ción de Mallat no se realiza utilizando directamen- multiespectral de 20 m a 5 m.
te las funciones de escala (f) y wavelet (c), sino 1. Aplicar la transformación IHS o el ACP a la
aplicando convoluciones con filtros de cuadratura, imagen multiespectral y obtener las componentes
1filtros h y g asociados a dichas funciones, seguidas Intensidad o CP .
de operaciones de remuestreo. 2. Generar una nueva imagen pancromática cuyo
El filtro h, asociado a la función de escala, es un histograma sea similar al de la imagen Intensidad o
1filtro unidimensional de paso bajo que permite ana- CP , tal y como puede apreciarse en la Figura 3.
N.º 18 - Diciembre 2002 67M. González-Audícana, R. García y A. Seco
Figura 3. Fusión de imágenes SPOT 4 XI e IRS-1D PAN utilizando el método AWPC o SWPC, basado en el algoritmo
de Mallat.
3. Aplicar la transformación wavelet discreta a las vés de la transformación wavelet discreta inversa,
1imágenes Intensidad o CP así como a la corres- de forma aditiva,
pondiente imagen pancromática, empleando la
wavelet seleccionada, en este caso, la wavelet ‘db4’
de Daubechies
Al ser el ratio de resolución espacial entre las
imágenes a fusionar 4:1, se aplicará una descompo-
sición de segundo orden a ambas imágenes, de
modo que en cada caso se obtendrá una imagen
aproximación, con una resolución de 20 m y los
coeficientes wavelet que recogen el detalle horizon-
tal, vertical y diagonal que se pierde al pasar de una
resolución de 5 m a 10 m y de 10 m a 20 m. o sustitutiva,
5. Incorporar el detalle espacial de la imagen pan-
cromática en la multiespectral a través de la trans-
formación IHS-RGB o el ACP inverso.4. Introducir el detalle espacial de la imagen pan-
cromática que le falta a la multiespectral (de 5m a Si el detalle se incorpora de forma sustitutiva, en la
120 m) en las componentes Intensidad o CP , a tra- componente I, denominamos al método SWI (Susti-
68 N.º 18 - Diciembre 2002Fusión de imágenes multiespectrales y pancromáticas: nuevas alternativas...
tución de los coeficientes wavelet en la componen- ción de cultivos, la discriminación de cubiertas
te Intensidad), mientras que si el detalle se incorpo- forestales, etc… es necesario que el proceso de
ra de forma aditiva, AWI. De igual modo, si el deta- fusión no distorsione información espectral de la
1lle se incorpora en la CP , denominamos al método imagen multiespectral original.
La calidad espectral de las imágenes fusionadasSWPC o AWPC.
podría evaluarse fácilmente comparando estas imá-El método AWL, aplicado por primera vez por
genes con la que habría captado el sensor multies-Nuñez et al (1997) es otra alternativa metodológica
pectral si lo hiciese con la resolución espacial delal método IHS, que emplea la transformación
sensor pancromático del IRS-1D. Puesto que estawavelet discreta para incorporar en la componente
comparación no es posible, las imágenes fusiona-Intensidad (denominada L) el detalle espacial de la
das, de 5m de resolución espacial, se degradanimagen pancromática que le falta a la multiespec-
hasta 20m de resolución y su contenido espectral setral. Nuñez et al emplean el algoritmo “à trous”
compara al de la imagen SPOT multiespectral ori-para la transformación wavelet discreta en lugar del
ginal.algoritmo de Mallat.
Esta comparación se ha llevado a cabo visual y
numéricamente
La comparación visual se ha realizado a partir deRESULTADOS
composiciones RGB, en la mayoría de los casos
composiciones en falso color utilizando las bandasTanto los métodos clásicos de fusión como las
del IRc, Rojo y Verde, tanto de la imagen originalalternativas metodológicas propuestas en este tra-
como de la fusionada. La calidad espectral de labajo se emplean para fusionar imágenes SPOT 4 XI
imagen fusionada es mayor cuanto mayor sea lae IRS-1D PAN. Las imágenes fueron captadas en
coincidencia de tono e intensidad de colores entre lanoviembre de 1999 y junio de 2000 respectivamen-
composición RGB de esta imagen y de la original.te y cubren la zona de regadío de Villafranca-
Además, se han utilizado parámetros cuantitati-Cadreita, al Sur de Navarra
vos para determinar la diferencia de informaciónComo paso previo a la fusión, tanto la imagen
espectral entre las imágenes fusionadas y la originalSPOT 4 XI como la IRS-1D PAN, se ortorrectifican
y con ello, estimar la calidad espectral de estastomando como referencia las ortofotos 1:5000
fusiones.correspondientes a los municipios de Villafranca y
Los parámetros utilizados han sido:Cadreita. El proceso de ortorrectificación permite
• El coeficiente de correlación entre bandas de laademás, remuestrear la imagen multiespectral de
imagen original y la fusionada. A mayor coeficien-20 m a 5 m e igualar de este modo el tamaño de
te de correlación, mayor calidad espectral presentapixel de esta imagen al de la imagen pancromática
la imagen fusionadacon la que se va a fusionar
• El índice ERGAS, del francés “Erreur RelativeEl algoritmo de transformación IHS empleado en
Globale Adimensionnelle de Synthèse”, propuestoeste trabajo se basa en el modelo de Triángulo de
por Wald (2000) y que se define comoSmith (1978) y considera la componente Intensidad
como la media de los valores RGB
Por otro lado, el ACP aplicado en este trabajo es
el no estandarizado, por lo que el cálculo de los
autovectores se realiza a partir de la matriz varian-
za-covarianza.
La fiabilidad o validez de los métodos de fusión
donde h es la resolución espacial de la imagen pan-empleados se estima a partir del análisis de la cali-
cromática, l la resolución espacial de la imagendad espectral y espacial de las imágenes fusionadas
multiespectral, Mi la radiancia media de cada unaresultantes.
de las N bandas espectrales (B ) que intervienen eni
la fusión y
Calidad espectral
Con el fin de que las imágenes fusionadas puedan
utilizarse para aplicaciones tales como la clasifica-
N.º 18 - Diciembre 2002 69M. González-Audícana, R. García y A. Seco
original-fusionada las bandas cuando se emplean métodos de fusióndonde s es desviación estándar de lai
basados en la transformación wavelet. Además, laimagen diferencia (original menos fusionada).
diferencia de medias entre la imagen original y lasCuanto menor sea el valor de ERGAS, mayor la
fusionadas puede considerarse insignificante paracalidad espectral global de la imagen fusionada y
todas las bandas, tanto en el caso de aplicar métodospor lo tanto, mayor la validez del método de fusión
aditivos como sustitutivos. También la desviaciónaplicado
original-fusionadaestándar de la imagen diferencia (s ) esEn la Tabla 1 se presentan los valores obtenidos, i
bastante baja para todas las bandas por lo que elpara ambos parámetros de calidad, al comparar el
índice ERGAS es mucho menor para estas imágenescontenido espectral de las imágenes fusionadas con
que para las obtenidas empleando los métodos clási-el de la imagen SPOT original.
cos de fusión. En este punto, es conveniente recor-
IHS SWI AWI dar que la calidad espectral de una imagen fusiona-
0.94030.3732 0.9437 da será mayor cuanto menor sea el índice ERGAS.Coeficiente 0.96750.5803 0.9674 Todo lo anterior pone de manifiesto que la cali-correlación 0.96150.5584 0.9698 dad espectral de las imágenes fusionadas obtenidasespectral 0.95710.3194 0.9583 por los métodos AWI, SWI, AWPC y SWPC es
13.46 3.29 3.27ERGAS mucho mayor que la de las obtenidas por métodos
clásicos, no pudiendo apreciarse grandes diferen-ACP SWPC AWPC
cias entre los métodos Aditivos y Sustitutivos.
0.93040.3010 0.9376
Coeficiente
0.94010.3309 0.9386
correlación 0.97920.7524 0.9872
espectral Calidad espacial0.94160.3310 0.9436
13.81 3.44 3.41ERGAS
En general, cuanto mayor sea la cantidad de
Tabla 1. Calidad espectral de las imágenes fusionadas. información de detalle espacial de la imagen pan-
cromática incorporada a la imagen multiespectral
El coeficiente de correlación entre las imágenes durante el proceso de fusión, mayor será la calidad
fusionadas por métodos clásicos y la imagen origi- espacial de la imagen fusionada resultante
nal es muy bajo para todas las bandas, lo que indi- La calidad espacial de una imagen fusionada se
ca que durante el proceso de fusión se ha producido determina comparando esta imagen con la pancro-
una importante modificación del contenido espec- mática original. Esta comparación, al igual que en
tral de la imagen multiespectral de partida. Parte del el caso del análisis de calidad espectral, se realiza
contenido espectral de la imagen SPOT 4 XI ha tanto visual como cuantitativamente
sido sustituido por el de la imagen IRS-1D PAN. La Para estimar de forma cuantitativa la calidad
imagen SPOT fue captada en Noviembre de 1999 espacial de las imágenes fusionadas se ha seguido
mientras que la IRS en junio de 2000, cuando el procedimiento propuesto por Zhou et al (1998).
muchas de las parcelas estaban ocupadas por distin- Tanto la imagen fusionada (5m de resolución espa-
tos cultivos con diferente reflectividad cial) como la IRS-ID PAN se filtran utilizando en
La baja calidad espectral de las imágenes obteni- este caso el siguiente filtro Laplaciano:
das aplicando los métodos IHS y ACP también puede
apreciarse visualmente, al comparar los colores de
las distintas cubiertas en la composición en falso
color de la imagen original y en las composiciones
en falso color de las imágenes fusionadas (Figura 4).
Por otro lado, puede apreciarse en la misma figu-
ra la alta coincidencia de tono e intensidad de colo- A continuación se calcula la correlación entre las
res entre las composiciones RGB de las imágenes imágenes filtradas. Un alto coeficiente de correla-
fusionadas por los métodos AWI y AWPC y la ima- ción indica que la imagen fusionada recoge gran
gen original, tanto en las zonas urbanas como en las parte de la información de detalle espacial presente
parcelas de cultivo. en la imagen pancromática
El coeficiente de correlación espectral entre la En la siguiente tabla se presentan los valores
imagen original y las fusionadas es alto para todas obtenidos, al comparar el detalle espacial de la ima-
70 N.º 18 - Diciembre 2002Fusión de imágenes multiespectrales y pancromáticas: nuevas alternativas...
*Figura 4. a) SPOT 4 XI original, 20 m resolución espacial, b) IRS-1D PAN, 5 m resolución espacial; c) Fusionada IHS;
d) Fusionada AWI; e) Fusionada, ACP; f) Fusionada AWPC.
Todas las figuras precedidas de asterisco se incluyen en el cuadernillo anexo de color
N.º 18 - Diciembre 2002 71M. González-Audícana, R. García y A. Seco
gen IRS-1D PAN con el de cada una de las imáge- forma más precisa los límites espaciales que defi-
nes fusionadas: nen cada cubierta.
IHS SWI AWI
0.9865 0.8863 0.8871 AGRADECIMIENTOSCoeficiente
0.9832 0.8795 0.8812
correlación
0.9686 0.8580 0.8583
espacial Este trabajo se ha llevado a cabo en el marco del
0.9862 0.8787 0.8786
proyecto CICYT nº AGL2000-0978 y del proyecto
SPOT XIACP SWPC AWPC de Investigación del Gobierno de Navarra Resolu-original
ción 58/1999.
0.9957 0.8921 0.8938 0.0370Coeficiente
0.9982 0.8851 0.8936 0.0378
correlación
0.9492 0.8321 0.8508 0.0037
espacial
0.9950 0.8448 0.8861 0.0174 BIBLIOGRAFÍA
Tabla 2. Calidad espacial de las imágenes fusionadas.
BURT, P. J. y ADELSON E. H. 1983. The Lapla-
cian Pyramid as compact image code. IEEE Tran-
Desde el punto de vista espacial, y teniendo en sactions on communications. 31(4): 532-540.
cuenta el coeficiente de correlación espacial entre la CARPER, J., LILLESAND T. M. y KIEFER R. W.
imagen SPOT XI original (remuestreada a 5m) y la 1990. The use of Intensity-Hue-Saturation trans-
imagen IRS PAN, es posible afirmar que tanto los formation for merging SPOT panchromatic and
métodos IHS y ACP como los métodos basados en multispectral image data. Photogrammetric Engi-
las transformaciones wavelet (AWI, SWI, AWPC, neering and Remote Sensing. 56(4): 459-467.
SWPC) permiten obtener imágenes de alta calidad COHEN, A., I. DAUBECHIES I. y FEAUVEAU,
espacial. J. C. 1992. Biorthogonal bases of compactly sup-
ported wavelets. Communications on Pure
Applied Mathematics. 45: 485-560.
CONCLUSIONES CHAVEZ, P. S. y KWARTENG A. Y. 1989. Extrac-
ting spectral contrast in Landsat Thematic Map-
Aunque la calidad espacial de las imágenes fusio- per image data using selective principal compo-
nadas obtenidas aplicando los métodos IHS y ACP nent analysis. Photogrammetric Engineering and
es muy alta, su información espectral difiere mucho Remote Sensing. 55(3): 339-348.
de la presente en la imagen multiespectral original. CHAVEZ, P.S., STUART J., SIDES C. y ANDER-
La distorsión radiométrica provocada al emplear SON J. A. 1991. Comparison of three different
estos métodos es especialmente importante cuando methods to merge multiresolution and multispec-
las imágenes a fusionar han sido captadas en distin- tral data: Landsat TM and SPOT panchromatic.
ta época. Photogrammetric Engineering and Remote Sen-
Los resultados obtenidos empleando métodos basa- sing. 57(3): 259-303.
dos en las transformaciones IHS y el ACP mejoran DAUBECHIES, I. 1992. Ten Lectures on Wavelets.
claramente si en lugar de sustituir las componentes I Philadelphia: Society for Industrial and Applied
1o PC por la imagen pancromática, se incorpora a Mathematics, 357 p.
estas componentes sólo el detalle espacial de la ima- EHLERS, M. 1991. Multisensor image fusion tech-
gen pancromática que le falta a la multiespectral. El niques in remote sensing. ISPRS Journal of Pho-
algoritmo de Mallat ha demostrado ser una adecuada togrammetric and Remote Sensing. 46: 19-30.
herramienta para la extracción del detalle espacial GARGUET-DUPORT, B., GIREL, J., CHASSERY,
correspondiente a aquellas estructuras con dimensio- J. M y PAUTOU, G. 1996. The use of multireso-
nes comprendidas entre el tamaño de píxel de la ima- lution analysis and wavelets transform for mer-
gen pancromática y de la imagen multiespectral. ging SPOT panchromatic and multispectral data.
Las imágenes obtenidas aplicando los métodos Photogrammetric Engineering & Remote Sen-
AWI, SWI, AWPC y SWPC mantienen la capaci- sing. 62(9): 1057-1066.
dad de discriminación de cubiertas de la imagen HAYDN, R., DALKE G. W., HENKEL J. y BARE
multiespectral original y además, al presentar J. E. 1982. Applications of the IHS color trans-
mayor resolución espacial, permitirán delimitar de form to the processing of multisensor data and
72 N.º 18 - Diciembre 2002

Un pour Un
Permettre à tous d'accéder à la lecture
Pour chaque accès à la bibliothèque, YouScribe donne un accès à une personne dans le besoin