Cet ouvrage et des milliers d'autres font partie de la bibliothèque YouScribe
Obtenez un accès à la bibliothèque pour les lire en ligne
En savoir plus

Partagez cette publication

Revista de Teledetección. 2001
La fusión de datos en teledetección
1 2F. J. Tapiador y J. L. Casanova
Correo electrónico: f.tapiador@bham.ac.uk
1 Departamento de Geografía. Universidad de Birmingham, Reino Unido
2 Laboratorio de Teledetección de la Universidad de Valladolid (LATUV)


RESUMEN ABSTRACT
En los últimos 10 años ha aparecido un conjunto de The concept of data fusion is a set of processes to
metodologías para realizar operaciones de fusión achieve complementary outputs from different
de datos, entendida ésta como un proceso en el que, radiometric, spectral and spatial resolution images.
partiendo de imágenes de diferente resolución In the last 10 years a set of methodologies have
espacial, espectral y radiométrica, se obtienen appear to get it. In this work this new field of re-
productos complementarios.En este trabajo se search in RS is presented, showing the most inter-
presenta este nuevo campo de investigación en esting techniques nowadays, the applications and
Teledetección, se exponen las técnicas más impor- evaluating the future possibilities of it.
tantes en la actualidad, sus aplicaciones, y se eva-
lúan las posibilidades futuras que ofrece.

PALABRAS CLAVE: Fusión de datos KEY WORDS: Data fusion



ción espectral, como es el caso de las imágenes INTRODUCCIÓN. TERMINOLOGIA
NOAA.
La fusión de datos es un conjunto de técnicas di- Las aplicaciones de estas técnicas se centran en
versas, cuyo común denominador es la mejora de aquellos trabajos que requieren mejorar de alguna
ciertas características de los datos de teledetección manera la discriminación de cubiertas a la mejor
(resolución, cobertura, etc.) a partir de conjuntos resolución espacial posible. Es el caso de extraer
de datos que, por sí solos, carecen de ellas. Un información de tipo ‘usos del suelo’ a resolución 5
ejemplo es la mejora de la resolución espacial de metros utilizando imágenes LANDSAT de 30 m.
las imágenes pancromáticas SPOT (10 m. de reso- La resolución LANDSAT, para estudios como el
lución espacial, 1 canal) con las multiespectrales planeamiento urbanístico, es insuficiente, mientras
SPOT (3 canales, 20 m. de resolución espacial), que las imágenes de 5 metros de, por ejemplo, el
consiguiendo imágenes multiespectrales, de tres sensor IRS-1D sólo nos proporciona información
canales, a una resolución de 10 metros. Otros de fisiográfica, en su canal pancromático. En trabajos
los métodos que se engloban bajo el epígrafe de de ordenación del territorio en los que se ha apli-
fusión de datos son la integración de información cado esta técnica (Directrices de Ordenación Terri-
vectorial y ráster, de información procedente de torial del Área Funcional de Segovia, por ejem-
diferentes sensores, de datos GPS con cartografía plo), se ha comprobado como es imprescindible
catastral, o bases de datos tradicionales. En la contar con la mejor resolución disponible, debido a
actualidad existe un cierto debate sobre la la necesidad de plasmar de manera precisa sobre el
terminología a emplear, encontrándose en la territorio una serie de políticas que tienen en cuen-
bibliografía algunos intentos de normalización ta la heterogeneidad del territorio.
(Wald 1999, Pohl y Touron 2000, Diemer y Hill
2000). MÉTODOS DE FUSIÓN DE DATOS
APLICACIONES DE LA FUSIÓN DE
En los últimos años se han desarrollado no me-DATOS
nos de una docena de métodos para realizar la
La fusión de datos se viene utilizando en Obser- mejora de la resolución espacial de algunos senso-
vación de la Tierra, pero también en Astronomía res. Algunas de las metodologías empleadas son
(para mejorar imágenes tomadas con diferentes las siguientes:
sensores y con objeto de restaurar imágenes defec-
El método IHS tuosas), y en otros ámbitos del tratamiento digital
de imágenes. En Teledetección, la línea de investi- El método IHS (acrónimo de Intensidad, Brillo y
gación con mayor número de trabajos en la actua- Saturación) se basa en la transformación de la
lidad se inscribe en el campo de la mejora de la imagen desde el espacio de color RGB hasta otro
resolución espacial de las imágenes de alta resolu- en el que los ejes son, precisamente, la intensidad,
el brillo y la saturación. El modelo de transforma-
Nº 15 – Junio 2001 1 de 6 F. J. Tapiador y J. L. Casanova
ción varía de unos autores a otros. Para imágenes guna banda de la multiespectral, o por una combi-
de satélite, es usual utilizar el descrito por Pohl y nación de la primera y segunda componentes prin-
Van Genderen (1998), cuyas ecuaciones, notando cipales. El segundo paso consiste en realizar la
como I, v y v a la intesidad, el brillo y la satura- transformación inversa para recomponer la ima-1 2
ción, respectivamente; y R, G, B al espacio de gen, dando como resultado una imagen fusionada.
color usual, son: Formalmente, si tenemos un conjunto de imáge-
nes {In}, con n([1,N], sea Cov la matriz varianza-
  covarianza del conjunto. C es simétrica, luego
 1 1 1
  puede diagonalizarse de la siguiente manera (teo-
 3 3 3     rema de Jordan): I R    
1 1 2     v1 = − G
     6 6 6
v2 B       λ .. 0 1    1 1  − 0 t    M CM = ... .. ...
2 2   
  0 .. λ n 
1
H = pudiendo ordenarse los autovalores li , y siendo  v2  M la matriz unitaria cuyas columnas son los auto-tan
 v1 vectores:  
V= (v , ..., v ), siendo v = (v , ...v ) los auto- 1 n i 1,i n,k
1 vectores correspondientes a l . i
2 2 2 S=(v1 + v2 )
Para cada autovector k, la k-ésima componente
C se calcula: no estando H definida si v =0, esto es, si R+G= 1 k
2B. Para este caso se adoptan soluciones estándar.
nLa transformación inversa se realiza mediante el
C = v Isistema: k ∑ i,j p
i=1ν1=S·cos(H)
ν2=S·sin(H) Nótese que para la implantación efectiva del mé-
todo basta calcular el primer autovalor, su autovec-
  tor correspondiente, y la primera componente  1 1 1
  principal. La imagen resultante, la primera compo-  3 6 2    R I nente principal, es una imagen que retiene gran      
1 1 2    G = − v1 parte de la información que contienen las bandas
    3 6 2
B v2      de partida. La lógica del método es insertar esta
   1 2 − 0 información como la componente intensidad, ya
 3 6  que el brillo y la saturación no nos aportan infor- 
mación fisiográfica. Una de las limitaciones del
método reside en que la primera componente prin-El método es uno de lo más usados. Su limita-
cipal no recoge toda la varianza, dependiendo la ción fundamental radica en la distorsión que pro-
calidad final de la imagen –a efectos de conserva-voca en las características espectrales de la imagen
ción de la respuesta espectral- del grado de varian-original, pero tiene como ventajas su sencillez
za retenida. A partir de valores del 95%, poco conceptual, lo intuitiva que resulta la transforma-
usuales por otra parte, se pueden encontrar correla-ción y la rapidez con que pueden llevarse a cabo
ciones significativas que dan cuenta de la fiabili-las operaciones.
dad del método. Sin embargo, la utilización de dos
El método PCS componentes principales suele ofrecer resultados
más ajustados, al retener usualmente más de un Este método (Principal Component Substitution)
97% de la varianza total entre las dos. es descrito por varios autores (Göpfert 1987, Al-
bert et al. 1988, Albertz y Tauch 1991, Chavez et Contribución espectral relativa
al. 1991, Ehlers 1991, Shettigara 1992, Kaufmann
Bajo esta denominación se encuadran varios mé-y Buchroithner 1994, Zhang 1997), siendo otro de
todos, como el algoritmo de Brovey o el P+XS (vs. los más utilizados. Puede atribuirse a Göpfert
Wald 1999) que realizan la fusión mediante opera-(Göpfert 1987). Su fundamento teórico es muy
ciones algebraicas entre bandas. Se parte de la parecido al IHS. Consiste en dos procesos sucesi-
hipótesis de que las longitudes de onda que cubre vos: la sustitución de la intensidad en el espacio de
la imagen de banda ancha, el pancromático, son color -que puede ser vista como la imagen de más
cubiertas a su vez por una combinación de bandas alta resolución espacial- por la primera componen-
de la imagen de baja resolución espacial, lo cual te principal, por una combinación de ésta con al-
sólo es válido como aproximación en la mayoría
2 de 6 Nº 15 – Junio 2001 La fusión de datos en teledetección
de los casos. Los resultados prácticos de este pro- sión sobre la ecuación siguiente: que nos relaciona
cedimiento son bastante limitados (Wald 1999). la imagen primigenia pancromática con la original
multiespectral renormalizada al mismo tamaño de
El método SVR píxel que la anterior. Las mejoras sobre el método
El método de ‘cociente sintético variable’ fue precedente son:
• Los parámetros ji se calculan directamente uti-propuesto por Pradines (1986), Price (1987) y
Munechika et al. (1993). Se trata más de un méto- lizando las imágenes de partida, sin recurrir a
modelos atmosféricos, ahorrando así tiempo do de unión de que fusión, mediante el que la ima-
gen multiespectral es calculada según laexpresión de computación. Además, la dependencia en-
tre radiancias de las clases queda asegurada y (Zhang 1999)
no depende de la elección del usuario.
• Para calcular la imagen sintética pancromática XSLiXSPi = Pan H se utilizan todas la bandas de la multiespectral Pan LSyn en vez de tan sólo la 1, 2, 3 y 4, evitando así la
distorsión en los colores resultantes. Los
en donde XSP es el nivel digital de la i-ésima ejemplos proporcionados por el autor, en par-i
banda de la imagen multiespectral de alta resolu- ticular el ajuste radiométrico, son convincen-
ción, Pan el de la pancromática, XS el nivel tes, si bien el método no consiste en una fusión H Li
digital de la i-ésima banda de la imagen multies- pura, sino en una mezcla de información entre
pectral de origen y Pan el correspondiente a diferentes sensores. LSyn
una imagen sintética pancromática de baja resolu-
El método de las onditas. El concepto ción simulada mediante la multiespectral. Para
ARSIS crear esta imagen sintética hay diferentes aproxi-
maciones. Para Munechika et al. (1993), basándose El llamado por sus autores ‘concepto ARSIS ’
en Suits et al. (1988): (Accroissement de la Résolution Spatiale par In j e
ction de Structures; incremento de la resolución
4 espacial por inyección de estructuras) es, como su
Pan = ϕ XS∑LSyn i LI propio nombre indica, un método que utiliza la
i=1 información de mayor resolución espacial para

‘iny e c t a r l a ’ , s egún una estrategia que supone Los j se calculan utilizando modelos empíricos i las hipótesis siguientes, para la fusión de imágenes
que tienen en cuenta los efectos atmosféricos y las
multiespectrales con pancromáticas (Mangolini respuestas espectrales de unas clases determinadas
1994):
de cubiertas. En la práctica, se calculan mediante
• Debe existir una similitud entre las estructuras regresión sobre los valores simulados con los mo-
fisiográficas observadas en las bandas espec-
delos atmosféricos, y se realiza también un ajuste
trales, sin que esto suponga que hay un recu-del histograma para adecuar las imágenes a las
brimiento entre bandas ni que los coeficientes
mismas condiciones de iluminación. El principal
de correlación entre las imágenes sean eleva-problema de este método es que el cálculo de los
dos.
coeficientes se realiza tan sólo para un número
• Las imágenes a fusionar pueden haber sido to-determinado de clases, que incluyen diferentes
madas en épocas diferentes, a condición de
respuestas espectrales. La necesidad de un modelo
que exista similitud entre la fisiografía. En el de corrección atmosférica, y la incapacidad para
caso de referirse a vegetación en diferente es-
realizar el proceso para áreas extensas son otros
tado fenológico, el método aportará unos re-dos problemas que llevaron a proponer mejoras.
sultados peores que si no es así.
El método SVR mejorado El método es como sigue (Ranchin 2000): se
aplica en primer lugar un análisis multirresolución,
Este método se debe a Zhang (1999). Partiendo
que no es sino la aplicación de un método basado
del método SVR, Zhang propone que: en onditas (wavelets) que van recogiendo la infor-

mación que se pierde entre sucesivos pasos de una
XSHi pirámide en la que según se asciende, cada escalón XSPi = Pan H Pan es de menor resolución que el anterior. El proceso HSyn
es inversible, pudiéndose recuperar la imagen sin
pérdida de un paso al anterior. Las onditas utiliza-donde XSP es lo mismo que en el SVR, mien-i das son: tras que ahora XS es el valor digital de la i-ésima Hi
banda de la imagen multiespectral renomarlizada
∞  hasta la misma resolución espacial de la pancromá- 1 x − b  WT (a,b) =〈f ,ψ 〉 = f (x)ψ dxf a,b ∫tica, y Pan es el nivel digital de la imagen de  HSyn a|a| −∞  alta resolución pancromática simulada mediante:
Aquí, los ji se calculan mediante análisis de regre-
Nº 15 – Junio 2001 3 de 6 F. J. Tapiador y J. L. Casanova
  valores de radiancia correspondientes a los de una x−b ψ
 a siendo el complejo conjugado de la fun- imagen de alta resolución espacial que cubran el  
ción de onda y. Calculando para cada escala a y mismo IFOV que la anterior. Es decir,
posición b de la señal f(x) –la imagen en el domi-
XS = F (Pan) (1) nio de la frecuencia- obtenemos la representación Lα α H
local de f(x) y unos coeficientes WF (a,b) que nos f
Así, para cada píxel de la imagen XS , de reso-permiten reconstruir la imagen sin ninguna pérdida Lα
lución espacial R , le corresponderá un conjunto de mediante la expresión: 1
2n= (R /R ) píxeles de la Pan , siendo R la resolu- 1 2 H 2
∞ ∞ ción espacial de la Pan ·F es lineal, por las H α
1 da·db f (x) = WT (a,b)ψ (x) características de adquisición de ambos sensores –∫∫ f a,b 2Cψ a−∞ −∞ la radiación que se recibe en un pixel se puede
suponer proveniente tan sólo de su IFOV
correspondiente-, por lo que podemos escribir que, donde C es la condición de admisibilidad de la Ψ
ondita madre. Esto en el caso continuo, el discreto para un píxel,
se deriva con facilidad de aquí.
nEl método ARSIS realiza una transformación
(2) XS = pi·Pan +Cmultirresolución por medio de onditas en tres di- Lα ∑ Hi
i=1recciones: vertical, horizontal y diagonal, esperan-
do recoger así las estructuras existentes en estos
siendo c un valor que dependerá de la relación que tres ejes. En la práctica, las expresiones analíticas
exista entre las longitudes de onda a las que sean señaladas arriba se sustituyen por filtros de paso
sensibles los sensores. En base a la hipótesis ante-alto aplicándose mediante un banco de filtros que
rior se puede suponer, además, que sintetiza las imágenes cada vez a menor resolu-
ción. Una vez alcanzado un umbral, se aplica un
n
modelo empírico de transformación de coeficientes pi·=1∑desde la imagen de más alta resolución a la de i=1
menor, restituyéndose depués la imagen por medio
de la transformada inversa. Los modelos difieren El número de posibles soluciones de esta ecua-
para cada tipo de fusión de imágenes. Por ejemplo, ción de n incógnitas es muy elevado. Ahora bien,
para el caso de la fusión de imágenes LANDSAT- sólo una parte de éstas, muy pocas, estarán de
TM canal 6 (120 m.) y LANDSAT-TM canal 4 (30 acuerdo con la restricción de que
m.) los autores proponen el siguiente:
n
Z Z Z Z (3) C = a C + b 〈XS 〉 = pi·Pan +C(TM6)60 (TM4)60 Lα ∑ Hi
Z Z Z Z
i=1C = a C + b , (TM6)30 (TM4)30

notando 〈XS 〉, como el valor medio de XS , para Z= Coeficientes Diagonal, Vertical y Hori- Lα Lα
restricción que supone la conservación de las pro-zontal.
piedades radiométricas de la imagen de más baja La capacidad de cada fusión depende tanto del
resolución espacial en el conjunto. Además, de modelo tomado como de las propias imágenes de
entre aquellas que satisfagan la restricción, sólo partida. En este sentido, el método ha sido aplicado
habrá un conjunto de p que sea el más probable por diversos autores (Garguet-Dupont et al. 1994, i
con los datos iniciales, en el sentido de que ofrezca 1996; Li et al. 1995; Zhou et al. 1998) con diferen-
un mayor número posible de opciones. Para la tes modelos, obteniéndose resultados variables en
determinación de los p conceptualizaremos a este función de este particular. En la actualidad (2000) i
conjunto como una distribución de probabilidad. se trabaja con un modelo llamado ARSIS 2 que
Es inmediato comprobar cómo se satisfacen las parece ser que ofrece mejores resultados al aplicar-
condiciones necesarias. Definiremos también una lo a diferentes cubiertas.
magnitud, la entropía de la información de la
El método de fusión de datos mediante fusión, de la manera habitual:
entropía (EDF)
nEl fundamento teórico del método que se propo- (4) S= k p Lp∑ i ine (Tapiador y Casanova 2000), denotado Entropy
i=1Data Fusion (EDF) se basa en la asunción de que,
en teoría, la irradiancia adquirida por un sensor de
Con k una constante. S nos mide la incertidum-
baja resolución espacial y multiespectral (imágen bre del sistema. A mayor incertidumbre, mayor
que notaremos como XS , con a una banda de-Lα número de posibilidades de que la distribución sea
terminada) es, en cada píxel y para cada banda, la correcta. Según Jaynes (1990) el problema de la
una función -en principio desconocida- de los búsqueda de la distribución de probabilidad que
4 de 6 Nº 15 – Junio 2001 La fusión de datos en teledetección
mejor se ajusta a la información que se tiene se
reduce entonces a resolver

n
sujeto a las condiciones max(−k p Lp )∑ i i
i=1

 n

pi·=1∑ (5)  i=1 n

〈XS 〉 = pi·PanLα ∑ Hi
i=1

Nótese que lo que se intenta es extraer el máxi-
mo de la información posible a partir de los datos
con los que contamos. Si se tuviera más informa-
ción, ésta podría ser incluída como restricciones
adicionales –lo cual, por otra parte, complejiza la
Figura 1a. Imagen de NDVI NOAA-AVHRR original. resolución del sistema-. En este sentido, el método
es óptimo. El planteamiento inicial de Jaynes nace
en la física estadística como un medio de búsqueda
de la distribución de probabilidad de un sistema
termodinámico en equilibrio. El mismo, en traba-
jos posteriores, señala la fácil traslación del méto-
do de entropía máxima y de su lógica subyancente
a campos tan alejados como la demografía o la
economía. La fusión de datos en teledetección.
Mediante transformaciones se llega al siguiente
sistema de ecuaciones exponenciales:

 −βPanhiZ = e ∑ (7)  −βPani hie
Z〈XS 〉 = PanLα ∑ Hi
i

La resolución analítica de este sistema de ecua-
ciones requiere métodos numéricos. De hecho, la
dificultad de aplicación del método de entropía
Figura 1b. Imagen LANDSAT-ETM compuesta original. máxima reside aquí. Una vez encontradas las solu-
ciones, basta con sustituir las probabilidades en la
ecuación (3) para obtener las probabilidades aprio-
rísticas a asignar a la imagen resultado de la fu-
sión. La aplicación del teorema de Bayes es enton-
ces inmediata. Como muestra general del procedi-
miento de fusión, y de este método en particular,
se ha recogido un caso extremo de fusión: la de
una imagen NDVI NOAA-AVHRR con otra
LANDSAT-ETM (Figura 1)
Otros métodos de fusión
Existe una panoplia considerable de otros méto-
dos de fusión, derivados en mayor o menor medida
de los señalados hasta aquí, elegidos precisamente
por formar la base sobre la cual se van desarro-
llando otros modelos. Sin embargo, ninguno de
ellos satisface la condición de encontrar la distri-
bución más probable que se obtiene mediante el
EDF. Por otro lado, las derivaciones propias de
cada uno de ellos son innumerables. Se pueden Figura 1c. EDF de NDVI.Resolución 30 metros
señalar, a modo de inventario, los siguientes:
Nº 15 – Junio 2001 5 de 6 F. J. Tapiador y J. L. Casanova
DIEMER, C., HILL, J. 2000. A local correlation ap-• Modelos markovianos (Ersbøll et al. 1998)
proach for the fusion of remote sensing data with dif-• Filtros de paso alto (Schowengerdt 1980)
ferent spatial resolutions. 3rd Int. Conf. of Fusion of • Normalización de imágenes (Ricchetti 2000)
Earth Data. 26-28 January. Sophia Antipolis. Francia. • Correlación local (Diemer 2000)
DSTO, (Defense Science and Technology Organization)
• Integración contextual (Faber 1999) 1994. Data Fusion Special Interest Group. Data fusion
• Pirámides laplacianas generalizadas (Aiazzi lexicon. Dept. of Defence. Canberra, Australia.
1999) EHLERS, M. 1991. Multisensor image fusion tech-
niques in remote sensing. ISPRS. Journal of Photo-
grammetry and Remote Sensing. 51: 311-316. CONCLUSIONES
ERSBØLL, B. K. et al. 1998. Fusion of SPOT HRV XS
La fusión de datos es un conjunto de técnicas que se and ortophoto data using a markov random fi e l d
ndhan desarrollado en los últimos 5 años y cuya evolución model. 2 Int. Conf. of Fusion of Earth Data. Sophia
es notable. El cada vez mayor número de sensores que Antipolis. France.
observan la Tierra ha llevado a que una misma escena HILL, J., DIEMER, C., STÖVER, O., UDELHOVEN,
sea observada simultáneamente por dos o más de ellos. T. 1999. A local correlation approach for the fusion of
Este hecho ha llevado a la necesidad de desarrollar remote sensing data with different spatial resolutions
técnicas de fusión que permitan obtener el máximo in forestry applications. ISPRS/EARSEL Workshop on
beneficio de la sinergia entre ambas observaciones. Su Fusion of Sensor Data, Knowledge sources and Algo-
utilidad reside en la capacidad de extraer información de rithms for Extraction and Classification of Topog-
sensores que carecen de alguna capacidad mediante el raphic Objetcs. 3-4 June 1999. Valladolid.
uso de otro sensor que posee información complementa- JAYNES. E. T. 1990. Probability theory as Logic.
ria, utilizando técnicas matemáticas y modelos físicos Maximum-Entropy and Bayesian Methods. P. F. Fou-
complejos que optimizan las características de ambos gère (ed.), Kluwer, Dordrecht.
sensores. LEVINE, R.D., TRIBUS, M (Ed). 1979. The maximum
Por último, añadir que el campo de la fusión de datos entropy formalism. MIT. Cambridge, MA.
no se circunscribe a las imágenes de satélite, sino que se MANGOLINI, M. 1994. Apport de la fusion d’images
puede considerar como tal la mezcla de información satellitaires multicapteurs au niveau pixel en telede-
ráster y vectorial, la información posicional proporcio- tection et photo-interpretation. M. Sc. Thesis. Univer-
nada por la constelación GPS e incluso la integración de sity of Nice-Sophia Antipolis. Francia.
medidas de campo y bases de datos convencionales con MOGHADDAM, M. 2000. Fusion of AIRSAR and TM
productos de satélite. No obstante, el término se circuns- data for variable classification and estimation in dense
cribe cada vez más hacia el contexto en el que lo hemos and hilly forests. 3rd Int. Conf. of Fusion of Earth
definido. Data. 26-28 January. Sophia Antipolis. Francia.
MUNECHIKA, C. K., WARNICK, J.S., SALVAGGIO,
C., and SCHOTT, J.R., 1993. Resolution enhacement AGRADECIMIENTOS
of multispectral image data to improve classification
Agradecer al personal del Centro de Supercomputa- accuracy. Photogrammetric Engineering and Remote
ción de Galicia (CESGA) su cooperación para los prime- Sensing. 59: 67-72.
ros estadios de implantación del método EDF, proceso POHL, C., TOURON, H. 2000. Issues and challenges of
en el cual amablemente colaboraron. operational applications using multisensor image fu-
sion. 3rd Int. Conf. of Fusion of Earth Data. 26-28
January. Sophia Antipolis. Francia. BIBLIOGRAFIA
RANCHIN, T., WALD, L., MANGOLINI, M. 1996.
AIAZZI, B. ALPARONE, L., BARDUCCI, A., The ARSIS method: a general solution for improving
BARONTI, S., PIPPI, I. 1999. Assesment of noise spatial resolution of images by means of sensor fu-
variance and information content of multi/hyper spec- sion. Proc. 1st Conf. Fusion of Earth Data. 6-8 fe-
tral imagery. ISPRS/EARSEL Workshop, Valladolid. brero, 53- 58.
BARNES, E.M., M.S. MORAN, P.J. PINTER, Jr.,y T.R. TAPIADOR, F.J., CASANOVA, J.L. 2001. An algo-
CLARKE. 1996. Multipsectral remote sensing and rithm for the fusion of images based on Jaynes’
site-specific agriculture: Examples of current technol- maximum entropy method. International Journal of
ogy and future possibilities. Proceedings of the 3rd Remote Sensing. En prensa.
Internation Conference on Precision Agriculture. TAPIADOR, F.J., 2001. Fusión de imágenes de satélite
BORWEIN, J.M., LEWIS, A.S., NOLL, D. 1996. mediante el método de entropía máxima de Jaynes.
Maximum entropy reconstruction using derivative in- Tesis doctoral. Departamento de Física Aplicada I.
formation, part I: Fisher information and convex dual- Universidad de Valladolid.
ity. Math. of Operational Research 21. WALD, L. 1999. Some terms of reference in data fu-
CHAVEZ, P.S., SIDES, S.C., ANDERSON, J.A., 1991, sion. IEEE Transactions on Geoscience and Remote
Comparation of three different methods to merge mul- Sensing. Vol 37, n.o 3.
tiresolution and multispectral data: LANDSAT TM WALD, L., RANCHIN, T. 2000. Fusion of high spatial
and SPOT panchromatic. Photogrammetric Engineer- and spectral resolution images: The ARSIS concept
ing and Remote Sensing. 57: 295-303. and its implementation. Photogrammetric Engineer-
DECARREAU, A., HILHORST, D., LEMARECHAL, ing & Remote Sensing. 66, n.o 1: 49-61.
C., NAVAZA, J. 1992. Dual methods in entropy ZHANG, Y. 1999. A new merging method and its spec-
maximization: Application so some problems in crys- tral and spatial effects. Int. J. Remote Sensing. 20, n.º
tallography. SIAM J. Optimization 2. 10: 2003-2014.

6 de 6 Nº 15 – Junio 2001

Un pour Un
Permettre à tous d'accéder à la lecture
Pour chaque accès à la bibliothèque, YouScribe donne un accès à une personne dans le besoin