You are on page 1of 71

CENTRO INTERAMERICANO DE INVESTIGACIÓN Y DESARROLLO

EN INFORMACIÓN GEOGRÁFICA

CIAF

PROCESAMIENTO DIGITAL DE IMÁGENES


- PRÁCTICA -

Xander Bakker

Santa Fe de Bogotá, Mayo 2001

© Instituto Geográfico Agustín Codazzi, 2001. Todos los derechos comerciales reservados.
Prohibido su reproducción para fines no académicos o de investigación.
Índice

1. INTRODUCCIÓN A ILWIS 2.23 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1


1.1 La ventana principal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Objetos de ILWIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Dominios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Dependencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5 Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.6 Menú sensitivo al contexto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2. PROCESAMIENTO DIGITAL DE IMÁGENES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10


2.1 Importación de imágenes de satélite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

3. VISUALIZACIÓN DE BANDAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.1 Despliegue de imágenes de satélite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2 Acercar a y alejar de la imágenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.3 Utilización de las barras de desplazamientos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.4 Despliegue de la imagen entera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.5 Generar un sub mapa de la información útil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.6 Pixeles y números digitales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

4. MEJORAMIENTO DE LAS IMÁGENES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20


4.1 Mejoramiento del contraste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.1.1 Cálculo del histograma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.1.2 Expansión lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.1.3 Comparación de la imagen original con la imagen mejorada . . . . . . . . . . . . . . . . . . . 23
4.1.4 Ecualización del histograma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.2 Mejoramiento espacial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.2.1 Filtros de paso bajo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.2.2 Filtros de paso alto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.2.3 Explicación adicional sobre el funcionamiento de filtros . . . . . . . . . . . . . . . . . . . . . . . 26

5. VISUALIZACIÓN DE INFORMACIÓN MULTIBANDA . . . . . . . . . . . . . . . . . . . . . . . . . . . 29


5.1 Composición a color . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
5.1.1 Composiciones a falso color . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.1.1.1 Composiciones a falso color, creando un mapa físico . . . . . . . . . . . . . . . . . . . 32
5.1.1.2 Composiciones a falso color, usando un listado de mapas . . . . . . . . . . . . . . . . 34
5.1.2 Composiciones a color (pseudo)-natural . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

6. GEOREFERENCIAR IMÁGENES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
6.1 Georeferenciación por medio de especificación de las coordenadas de las esquinas . . . . . 35
6.2 Georeferenciación por medio de puntos de control . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
6.2.1 Funciones de transformación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
6.2.2 Puntos de control a partir de mapas análogos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
6.3.3 Puntos de control a partir de mapas digitales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
7. OPERACIONES MULTIBANDA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
7.1 Relaciones entre las bandas: variaciones en iluminación . . . . . . . . . . . . . . . . . . . . . . . . . 40
7.2 Índice de vegetación de diferencia normalizado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
7.3 Aritméticas de imágenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

8. CLASIFICACIÓN DE LAS IMÁGENES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46


8.1 “Density slicing” (clasificación de una sola banda) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
8.2 Clasificación multi-espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
8.2.1 Clasificación no-supervisada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
8.2.2 Clasificación supervisada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
8.2.2.1 Fase de entrenamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
8.2.2.2 Despliegue de “Feature Spaces” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
8.2.2.3 Evaluación de estadísticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
8.2.2.4 Clasificación del muestreo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
8.2.2.4.1 “Box classifier” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
8.2.2.4.2 “Minimum Distance classifier” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
8.2.2.4.3 “Minimum Mahalanobis Distance classifier” . . . . . . . . . . . . . . . . . . . . . . . . . 52
8.2.2.4.4 “Maximum Likelihood classifier” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
8.2.2.4.5 Efectuar la clasificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
8.2.2.5 Evaluar los resultados de la clasificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
8.2.2.6 Operaciones posteriores a la clasificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
8.2.2.7 Filtros de predominancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

9. CORRECCIÓN GEOMÉTRICA DE LOS RESULTADOS . . . . . . . . . . . . . . . . . . . . . . . . . . 55


9.1 Diferentes funciones de transformación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
9.1.1 Vecino más cercano (Nearest Neighbour) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
9.1.2 Interpolación bilineal (Bi-Linear) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
9.1.3 Convolución cúbica (Cubic Convolution) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
9.2 Crear una georeferenciación de esquinas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
9.3 Re-muestreo hacia una georeferenciación de esquinas . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
9.4 Incorporar las zonas urbanas en el mapa de cobertura . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

10. PROCESAR UNA VENTANA DE UNA IMAGEN LANDSAT . . . . . . . . . . . . . . . . . . . . . . 58

11. RESPUESTAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

BIBLIOGRAFÍA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

1. Introducción al Sistema de Información Geográfica ILWIS 2.23


Para el desarrollo de las prácticas de análisis y modelamiento se ha escogido el Sistema de
Información Geográfica ILWIS para Windows versión 2.23, puesto que es fácil de manejar por su
interfaz amigable y tiene amplias posibilidad de análisis espacial. ILWIS es un SIG que ofrece sus
funciones de análisis principalmente en el formato raster.

Es necesario introducir unos conceptos básicos de ILWIS para Windows antes de empezar con el
desarrollo del análisis:

Para entrar al Sistema de Información Geográfica ILWIS haga doble clic sobre el icono de ILWIS
que se ha generado en el escritorio de WINDOWS; o acceda al programa mediante la utilización de
las opciones Inicio, Programas, ILWIS 2.2, ILWIS 2.2.

1.1 La ventana principal


Se despliega una ventana de bienvenida que inmediatamente conduce a la ventana principal:

©
X. Bakker 1 Instituto Geográfico Agustín Codazzi. 2001
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

La Ventana principal de ILWIS da acceso a todas sus posibilidades, en ella se muestran todos los
elementos necesarios para la elaboración de cualquier operación así como los archivos que el usuario
genera.

Elementos de la Ventana Principal

La barra de Título

Como en otras aplicaciones bajo Windows la barra de título suministra información al usuario acerca
de la ubicación en la que se encuentra trabajando, así como del programa que se está ejecutando,
posee botones de control que permiten cerrar, ampliar, reducir o minimizar la ventana en uso.

La barra de Menús

Inmediatamente bajo la barra de título se encuentra una barra de menús de tipo persiana en donde se
posibilita al usuario el acceso a todas las herramientas y elementos del Sistema.

La linea de comandos

Esta es una característica especial de ILWIS, si se es un usuario avanzado puede utilizarse para
ejecutar ordenes mediante el tecleo de los comandos apropiados. Además allí pueden escribirse las
fórmulas de generación de nuevos elementos (columnas, tablas o mapas).

Se memorizan las últimas órdenes dadas de tal forma que el usuario tenga rápido acceso a ellas sin
necesidad de escribirlas nuevamente.

©
X. Bakker 2 Instituto Geográfico Agustín Codazzi. 2001
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

La barra de botones

Bajo la linea de comandos se encuentra la barra de botones, su funcionalidad es el despliegue de


información y su presentación en pantalla los siguientes elementos la conforman:

El primer elemento de la barra de botones permite desplegar y ocultar la ventana


correspondiente al Listado de operaciones, de esta manera se obtendrá mayor espacio
para visualizar los elementos del catálogo.

Este botón permite al usuario mostrar un nuevo mapa en una nueva pantalla. Gracias
a las características propias del Sistema operativo (Windows) es posible desplegar
varias ventanas de mapa, tablas y gráficos simultáneamente.

La función de este elemento de la barra de botones es el despliegue de una tabla


existente. De igual forma que en el despliegue de mapas es posible la visualización de
varias tablas en una pantalla de Windows.

En ILWIS es posible conocer las características de atributos que corresponden a un


elemento geográfico, esto significa que mediante el uso de este botón puede leerse la
información alfanumérica que atañe a cualquier ubicación geográfica.

Haga clic aquí para seleccionar los elementos que quiere visualizar en el Catálogo; esta
herramienta le facilita encontrar un objeto o mostrar solamente aquellos de un tipo
determinado.

Este es el seleccionador de drive; con el puede desplazarse de uno a otro sin tener que
recurrir al Administrador de Archivos. Si hace clic sobre él se desplegarán los drives
existentes en el computador y podrá escoger cualquiera de ellos.

Este otro seleccionador permite navegar por los directorios de un mismo


drive. Normalmente toda la información que se procese será almacenada en
el drive y directorio que aparecen en la ventana principal en el momento de
ejecutarla.

Las Barras de desplazamiento al igual que en cualquier aplicación de Windows permiten visualizar
información dentro de una ventana sin tener que modificar su tamaño.

En la barra de estado aparecen las propiedades y funcionalidades de cada uno de los elementos por
donde se desplace el cursor.

©
X. Bakker 3 Instituto Geográfico Agustín Codazzi. 2001
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

El Listado de Operaciones

En él se encuentran todos los programas y funcionalidades que hacen parte del Sistema de
Información Geográfica ILWIS. La forma de acceder a cualquiera de estas aplicaciones es haciendo
doble clic sobre el programa que se quiere ejecutar.

El Catálogo

En el Catálogo aparecen todos aquellos elementos de ILWIS que se encuentran dentro del directorio
en ejecución, es importante tener en cuenta que un objeto de ILWIS no siempre consta de un solo
archivo por ello es recomendable que sean manejados, copiados o borrados desde la ventana de
ILWIS y no desde el Administrador de archivos.

©
X. Bakker 4 Instituto Geográfico Agustín Codazzi. 2001
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

En el Catálogo entonces pueden visualizarse los diferentes tipos de mapas, tablas u objetos que
pueden generarse con ILWIS. Como puede observarse un icono identifica cada objeto dentro de esta
ventana, a continuación podrá diferenciar estos iconos y comprender su significado.

1.2 Tipos de objetos en ILWIS


En ILWIS se utilizan diferentes iconos para representar diferentes tipos de objetos. Los objetos se
dividen en cuatro clases:

Objetos de Datos:
Objetos de datos consisten en los elementos que contengan datos. Además, los objetos se caracterizan
por ser utilizados como datos de entrada en un análisis.

Mapas de Puntos (ej: Estaciones pluviométricas, sitios de muestreo, etc)

Mapas de Segmentos (ej: vías, drenajes, curvas de nivel, etc)

Mapas de Polígonos (ej: uso, cobertura, municipios, etc)

Mapas Raster (todos los mapas vectoriales rasterizados y además grados continuos {ej:
modelo digital de elevación} y productos de sensores remotos {ej: imágenes de satélite y
fotografías aéreas}).

Listados de mapas (un listado de mapas raster que comparten la misma georeferenciación
y el mismo dominio).

Tablas (información sin componente espacial, que puede caracterizar elementos especiales.
ej: datos de textura, pH y profundidad para unidades de suelos, etc).

Columnas

Objetos de mantenimiento
Objetos de mantenimiento contienen información acerca de objetos de datos:

Dominio Contiene información sobre la definición (códigos) de los elementos que contiene
un objetos de datos.

Representación Contiene la definición de como representar los elementos en el dominio.

Georeferenciación Contiene la definición para mapas raster de como se relacionan filas y


columnas con coordenadas planas o geográficas.

Sistema de coordenadas Contiene información sobre la extensión del mapa y


opcionalmente la relación de coordenadas planas con su ubicación geográfica.

©
X. Bakker 5 Instituto Geográfico Agustín Codazzi. 2001
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

Objetos especiales
Objetos especiales son aquellos objetos que pueden ser aplicados a, o derivados de objetos de datos.

Vistas de mapas Frecuentemente existe la necesidad de elaborar un producto visual para


su impresión o presentación en pantalla, que consiste en múltiples capas de información.
La definición de tal presentación se guarda en una vista de mapas.

Histograma de un mapa raster Una tabla con el mismo dominio que el mapa raster, la cual
contiene información sobre la frecuencia de ocurrencia de los elementos en el mapa.

Histograma de un mapa de polígonos Una tabla con áreas, perímetros y número de


polígonos por cada elemento del dominio del mapa de polígonos.

Histograma de un mapa de segmentos Una tabla con la longitud y el número de segmentos


por cada elemento del dominio del mapa de segmentos.

Histograma de un mapa de puntos Una tabla con el número de puntos por cada elemento
del dominio del mapa de puntos.

Conjunto de muestreos espectrales Usado en el procesamiento digital de imágenes para


efectuar una clasificación multiespectral supervisada.

Tabla bi-dimensional Usado para definir la combinación de elementos en dos mapas raster
durante una superposición.

Matriz Generado en algunas operaciones estadísticas (covariancia, correlación,


eigenvectors de componentes principales, etc).

Filtro Contiene información sobre la matriz de valores que se aplica en el proceso de filtrar
un mapa raster.

Funciones Contiene funciones definidas por el usuario.

Scripts Pueden contener una secuencia de operaciones de ILWIS. Por medio de los scripts
se puede automatizar un análisis.

©
X. Bakker 6 Instituto Geográfico Agustín Codazzi. 2001
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

Objetos de anotación
Los objetos de anotaciones son aquellos que contribuyen a los objetos de datos para convertirlos a
cartografía. La mayoría de estos objetos no pueden ser desplegados en el catálogo y son una parte
integral de una “vista de mapas”.

Capa de textos Norte

Título Grilla

Leyenda Graticule

Caja Bitmap

Escala

1.3 Dominios
Los dominios son como el centro de un conjunto de información. Ellos contienen todos los códigos
que pueden ocurrir en un mapa, tabla o columna. Existen tres principales tipos de dominios:

Dominio tipo clase


El dominio clase (“class”) se utiliza para mapas donde una unidad puede existir en varias partes del
mapa, y aunque esta unidad existe en varias partes, las características de estas unidades son las
mismas. Un mapa de unidades de cobertura es un ejemplo de un mapa con dominio tipo clase.

Dentro de este tipo de dominio existe una variación que se llama “class group”. Se utiliza para mapas
donde rangos de valores se asignan el mismo significativo. Cuando a partir de un modelo digital de
elevación (mapa con valores que representan la altura en cada pixel) se genera un mapa de pisos
climatológicos, se aplica el dominio “class group”; 0-1000 msnm corresponde a cálido, 1000-2000
msnm a clima templado, 2000-3000 msnm a clima frío y superior a 3000 a páramo y sub-páramo.

Dominio tipo Identificador


El dominio identificador se utiliza para identificar elementos que son únicos en un mapa. Un mapa
con estaciones pluviométricas es un mapa de tipo identificador, puesto que la información que
almacena una estación pluviométrica es única.

Dominio tipo valor


El dominio tipo valor se utiliza obviamente para mapas y columnas con valores. Este tipo de dominio
se subdivide en muchos tipos de dominio valor. Un dominio valor se define por su rango de valores
y precisión.

Count Conteo de elementos: valores de 0 hasta 999'999.999 con precisión 1


Distance Para cálculo de distancias: valores de 0 hasta 1.000'000.000 con precisión 0.1

©
X. Bakker 7 Instituto Geográfico Agustín Codazzi. 2001
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

Min1to1 Usado para cálculos con resultado en el rango de -1 hasta 1 como el índice de
vegetación verde: valores de -1 hasta 1 con precisión 0.0 (la precisión no tiene límite)
Perc Para representar porcentajes: valores de 0 hasta 100 con precisión 0.0 (la precisión no
tiene límite).
Value Valores por defecto de -9999999.99 hasta 9999999.99, precisión 0.01, el usuario puede
adaptar el rango y la precisión según sus necesidades.

& Dominio tipo valor usados para productos de la percepción remota


Image Para imágenes satelitales con rango de valores de o hasta 255: valores de 0 hasta 255
con precisión 1
Noaa Para imágenes del satélite NOAA: valores de 0 hasta 1023 con precisión 1
Radar Para imágenes RADAR: valores de 0 hasta 32767 con precisión 1

& Dominio tipo valor usados para operaciones lógicas


Bit Contiene valores 0 (falso) y 1 (verdadero)
Bool Contiene valores 0 (falso), 1 (verdadero) y “?” (indefinido)
Yesno Contiene “Yes” (Si), “No” (No) y “?” (indefinido)

Otros dominios
Binary Usados internamente y solo en elementos binarios (filtros del sistema)
Color Para mapas raster con colores de 24-bits.
Colorcmp Para composiciones a color de tipo estándar usando 216 colores.
None Para tablas no relacionadas a elementos espaciales.
Picture Para mapas que contienen colores de paleta (8-bits, 256 colores) sin otro significativo
de los pixeles.
String Únicamente para columnas que contienen textos

1.4 Dependencias
En ILWIS existen diferentes tipos de dependencias. Un mapa depende de un dominio, además puede
tener por medio del dominio una o más representaciones. Una tabla de atributos puede utilizar el
mismo dominio que un mapa y por compartir el mismo dominio estos objetos de datos pueden estar
directamente relacionados.

Otro tipo de dependencia es cuando se efectúa un análisis y se guardan en las propiedades la fórmula
que se aplicó para generar un nuevo mapa. Ejemplo: un análisis simplificado para determinar la
erosión, que solamente utilice información (mapas) de precipitación, cobertura vegetal, suelos y
pendientes. Normalmente se tratan los mapas de entrada como si fueran estáticos, generando un
resultado de análisis estático. En ILWIS, cuando un mapa utilizado como entrada para un análisis se
cambia, la dependencia del resultado con el mapa cambiado avisará al usuario que el resultado del
análisis está desactualizado y ofrece la opción de actualizarlo.

©
X. Bakker 8 Instituto Geográfico Agustín Codazzi. 2001
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

1.5 Propiedades
El usuario puede tener acceso a las propiedades de los objetos por medio del menú sensitivo al
contexto. Para hacerlo aparecer se debe ubicar el puntero sobre el objeto de interés y oprimir el botón
derecho del mouse, luego seleccionar la opción “Properties”.

En las propiedades se puede obtener información sobre el dominio que está usando el objeto de datos.
Además, el número de puntos, segmentos, o polígonos para mapas vectoriales y número de filas y
columnas para mapas raster. En las propiedades se puede especificar la descripción del objeto que
nos ayuda a trabajar más estructuradamente y hacer los datos mas intercambiables.

1.6 Menú sensitivo al contexto


El menú sensitivo al contexto en un menú emergente que aparece cuando el mouse está ubicado sobre
un objeto y se oprima el botón de la derecha del mouse. Las opciones difieran dependiendo el objeto
que se está usando.

©
X. Bakker 9 Instituto Geográfico Agustín Codazzi. 2001
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

2. PROCESAMIENTO DIGITAL DE IMÁGENES


Mientras el procesamiento digital se trata fundamentalmente en la intensidad radiométrica de cada
pixel, un análisis visual puede revelar información sobre textura, estructura, emplazamiento o
disposición, los cuales muy difícilmente pueden ser definidos en términos digitales.

Por ejemplo, algunos cultivos irrigados suelen ofrecer una respuesta espectral muy parecida a los
parques urbanos. Sin embargo, su significado temático es claramente distinto. Digitalmente su
distinción es muy compleja, ya que los valores numéricos de ambas cubiertas son muy similares. Por
medio de la incorporación de un criterio visual, se puede separar ambas cubiertas.

El tono hace referencia a la intensidad de energía recibida por el sensor para una determinada banda
del espectro. Los pixeles con tonos oscuros indican aquellas áreas sobre las que el sensor detectó una
señal baja, mientras las zonas claras son testigo de altos valores de radiancia. En otros palabras, el
tono se relaciona estrechamente con el comportamiento espectral de las distintas cubiertas, para la
banda particular del espectro sobre la que se trabaja.

Por ejemplo, la vegetación


tiende a ofrecer tonos oscuros
en las bandas visibles y muy
claros en el infrarrojo cercano,
mientras el agua ofrece valores
oscuros en ambas y la nieve
presenta un tono blanco
relativamente uniforme. Se
pueden seleccionar las bandas
más aptas para reconocer
determinados rasgos de interés:
modelos de drenaje y morfología
(infrarrojo cercano), zonas
urbanas (verde y rojo visible),
turbidez en el agua (azul),
d e limit a c ió n t ier r a/ ag u a
(infrarrojo cercano) y vegetación
(rojo e infrarrojo cercano).

El ojo humano es más sensible a las variaciones cromáticas que a la intensidad luminosa. Es fácil de
comprender que el color es un factor indispensable para la interpretación visual de imágenes, puesto
que la mezcla de varias bandas del espectro resulta en un aumento de información. En el capítulo 5
VISUALIZACIÓN DE INFORMACIÓN MULTIBANDA se explica más sobre los colores y las
composiciones a color.

©
X. Bakker - 2001 10 Importación
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

ILWIS utiliza el dominio image para las imágenes de satélite y fotografías escaneadas en escala de
grises. Las bandas de SPOT pancromática y multiespectral tanto como las de LANDSAT utilizan un
rango de valores de 0 hasta 255. Imágenes meteorológicas como NOAA utilizan un rango más
reducido (0-63).

2.1 Importación de imágenes de satélite


En este ejercicio se importará una imagen de satélite SPOT multiespectral y una imagen de satélite
SPOT pancromática. Las imágenes de satélite SPOT multiespectral vienen en un formato llamado
“band interleaved”, lo cual significa que las 3 ó 4 bandas están en un archivo donde primero se
escribe la primera linea de todas las bandas, luego la segunda, etc.

ILWIS 2.2 todavía no viene con un formato de importación que detecta el formato SPOT, por lo
tanto se deben utilizar el formato “General raster data”, lo cual también se utiliza para las imágenes
de LANDSAT, RADAR y otros. Puesto que este tipo de importación se pueden utilizar para varios
formatos que no son lo mismo, se tiene que indicar algunos parámetros que definen como importar
la información.

Las imágenes de SPOT vienen con una página donde están especificados los parámetros que se
necesitan para la importación de las imágenes:

1) Muestra la información sobre el modo


espectral y el número de bandas: 1 para el modo
pancromático (P) y 3 ó 4 para el modo
multiespectral (XS).

2) Muestra información sobre el número de filas


1 que tiene la imagen, el número de columnas con
información y en cual columna comienza la
información (siempre 33).

2 3) Muestra la información de las coordenadas


geográficas en relación con los pixeles de esquina.

4) Muestra el número de columnas que se debe


utilizar para la importación:
3
 Para imágenes pancromáticas: 8640
 Para imágenes multiespectrales: 5400
4
(En nivel de pre-procesamiento 1B)

©
X. Bakker - 2001 11 Importación
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES


Existen varias maneras de accesar el programa de importación:


Seleccionando del menu “File”, luego “Import”.


Escribiendo en la línea de comando la palabra “import”, luego presionando <Enter>
Seleccionando del listado de operaciones la opción “import”

ILWIS permite importar la información directamente desde el CD-ROM sin la necesidad de copiar
la información primero al disco duro. En caso que el CD-ROM contenga varias imágenes el CD-
ROM tendrá varios directorios:

\SCENE01
\SCENE02
...
\SCENEnn

nn representa el número de imágenes en el CD-ROM.

Dentro de estos directorios vienen varios archivos. Siempre habrá que utilizar el archivo denominado
“IMAG_nn.DAT” (donde nn se debe reemplazar por el número adecuado).

El CD-ROM usado dentro del curso contiene dos imágenes de SPOT originales:

SCENE01 Imagen multiespectral de tres bandas tomada sobre Francia con el satélite
SPOT-4, de marzo de 1998.
SCENE02 Imagen pancromática tomada sobre Francia con el satélite SPOT-4, de marzo
de 1998.

 Entre al programa de importación,


seleccione el drive del CD-ROM, el
directorio “CPDI1” y su subdirectorio
“SCENE01". Seleccione del listado con
los formatos de importación, el formato
“General raster data”. Luego,
seleccione el archivo “imag_01.dat”, y
cambie el nombre de salida a “xs”.

 En la siguiente ventana (ver gráfico a la


derecha) cambie el número de bandas
a 3, número de columnas a 5400 y
asegure que la estructura del archivo
(“File Structure”) está en “Band
Interleaved” y oprima el botón “OK”.

Especificaciones en caso de importar una imagen


SPOT XS, con 3 bandas.

©
X. Bakker - 2001 12 Importación
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

Observe que en el catálogo de la ventana principal de ILWIS aparecen los siguientes elementos:

- los mapas raster correspondiente a las tres bandas (“xs1", “xs2" y “xs3")
- un listado de mapas con el nombre “xs”

Importe ahora la imagen pancromática:

 Seleccione del listado de operaciones la opción “import”. Seleccione el drive del CD-
ROM, el directorio “CPDI1” y su subdirectorio “SCENE02". Seleccione del listado con
los formatos de importación, el formato “General raster data”. Luego, seleccione el
archivo “imag_02.dat”, y cambie el nombre de salida a “p”.

 En la siguiente ventana (ver gráfico


a la derecha) cambie el número de
columnas a 8640 y oprima el botón
“OK”.

Especificaciones en caso de importar una imagen


SPOT P.

Observe que en el catálogo de la ventana principal de ILWIS aparece el mapa raster “p”.

En caso de importar una imagen de satélite multiespectral se genera un listado de mapas. ILWIS
asume que el orden de las bandas es secuencial comenzando con el 1. En caso que se ha especificado
el nombre “xs” en la caja de nombre salida (Output Name), se generarán los mapas raster “xs1", “xs2"
y “xs3" (para 3 bandas).

Desafortunadamente el orden de las bandas en que viene las imágenes multiespectrales no es 1,2 y
3 pero 3, 1 y 2. Además, puesto que se importa la imagen con más columnas de las que tienen
información, se tendrán que cortar las imágenes por la parte útil.

©
X. Bakker - 2001 13 Importación
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

El gráfico abajo indica en color gris la parte de la imagen sin información (aparece en color negro y
tiene valor 0). La parte blanco contiene la información satelital.

Mas adelante cortaremos la información útil y renombraremos las bandas. Primero reconocemos la
información importada.

©
X. Bakker - 2001 14 Importación
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

3. VISUALIZACIÓN DE BANDAS
En este capítulo se aprenderá a desplegar las bandas de la imagen multiespectral y la imagen
pancromática importadas en el ejercicio anterior.

3.1 Despliegue de imágenes de satélite


Normalmente se despliega una banda de una imagen en escala de grises. De ésta manera, asignando
el color negro donde no hay respuesta espectral y asignando colores más claros (hasta blanco) para
las áreas con una mayor respuesta espectral.

Una banda con información obtenida del infrarroja cercana, contiene información sobre la cobertura
vegetal de la superficie. Con escala de grises, las partes con más densa vegetación aparecerán en gris
claro hacia blanco y partes sin cobertura vegetal, serán reflejadas mediante tonalidades muy oscuras.

En este ejercicio desplegaremos las 3 bandas de la imagen multiespectral separadamente y luego la


banda pancromática de la misma área.

 Haga doble clic sobre el mapa raster “xs1”, en la caja del diálogo. Asegúrase que se
está utilizando la representación “grey” para el despliegue, acepte los valores dados
por defecto (esto puede demorar un poco, puesto que la primera vez que se
despliegue una banda el sistema tiene que calcular el histograma). Despliegue
simultáneamente las otras dos bandas y compare las diferencias.

Hay dos imágenes que son muy similares en su aparencia. Anote abajo cuales son las bandas de la
imagen multiespectral similares y explique por que:

La banda ......que se encuentre en el mapa raster llamado ............ es similar a la banda ..... contenida
en el mapa raster llamado .............. por la siguiente razón:

 Haga doble clic sobre el mapa raster “p”, en la caja del dialogo. Asegúrase que se
está utilizando la representación “grey” para el despliegue, acepte los valores dados
por defecto.

La imagen pancromática no se parece a la banda 3 de la imagen multiespectral, pero sí a las bandas


1 y 2, por lo tanto se puede concluir que la imagen pancromática fue tomada en la parte ....................
del espectro electromagnético.

No cierre las ventanas de las imágenes y continúe con el ejercicio 2.2.

©
X. Bakker - 2001 15 Visualización de bandas
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

3.2 Acercar a y alejar de la imágenes


ILWIS permite hacer acercamientos en la imagen por medio de los botones correspondientes. Hay
que tomar en cuenta que las imágenes tienen un nivel de detalle: las bandas de la imagen
multiespectral tienen resolución espacial de 20 metros por pixel, y la imagen pancromática tiene una
resolución espacial de 10 metros por pixel. En caso de que se acerque demasiado se verá la definición
de los pixeles.

 En la ventana del mapa raster con el nombre “xs1" oprima el botón . Note que el
cursor del mouse se cambia. Ubique el mouse en el centro de la ventana del mapa
raster y oprima con el botón izquierdo del mouse. Se acerca a la imagen con un factor
2. La ventana queda con el mismo tamaño. De la misma manera se puede generar
un rectángulo con esta función de la parte de la imagen que le interese. Acérquese
hasta observar la definición de los pixeles.

 Por medio del botón se puede alejar (“zoom out”) de la imagen. Aplique este
botón hasta obtener el factor con que se despliega el mapa por defecto.

Haga acercamientos en una banda de la imagen multiespectral y en la imagen pancromática, y


compare la resolución espacial.

3.3 Utilización de las barras de desplazamientos


La mayoría de los Sistemas de Información Geográfica poseen la posibilidad de desplazarse por la
información desplegada. Esto normalmente se llame “pan”. ILWIS, con el fin de brindar esta función
hace uso de sus barras de desplazamiento.

 En la ventana de alguno de los mapas raster desplegados (y ampliados) oprima con


el botón izquierdo sobre la barra de desplazamiento, según la explicación a
continuación.

1 Al oprimir este parte el despliegue se desplazará un pixel a la izquierda.


2 Al arrastrar este botón se puede desplazar tanto hacia la derecha como hacia la izquierda.
3 Al oprimir esta parte de la barra se desplaza 75% de despliegue hacia la derecha.

Obviamente esta explicación también se aplica a la barra de desplazamiento vertical.

©
X. Bakker - 2001 16 Visualización de bandas
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

3.4 Despliegue de la imagen entera


En muchos casos es deseable volver al despliegue por defecto (imagen entera) de las bandas. Para
este fin existe el siguiente procedimiento.

 En la ventana de alguna de las bandas ampliadas oprime el botón . Observe


como se vuelve al despliegue original de la banda.

3.5 Generar un sub mapa de la información útil


Como fue explicado en el primer capítulo, las bandas de la imagen multiespectral no tienen el nombre
que les corresponde. En este ejercicio renombramos las bandas y cortamos las imágenes por la parte
útil en la misma operación. El programa que permite esto se llama “SubRas”.

Existen varias maneras de accesar el programa de creación de un sub-mapa en formato raster:



Seleccionando del listado de operaciones la opción “SubRas”


Escribiendo en la línea de comando la palabra “subras”, luego presionando <Enter>
Ubicar el mouse sobre el mapa raster de interés, oprimir el botón derecho del mouse,
seleccionar “Raster Operations” y luego la opción “Sub Map”.

Auque la última opción parece ser más larga que las demás, esta opción tiene la ventaja que en la
ventana del dialogo que sigue el mapa de interés ya está seleccionado como mapa de entrada.

El programa “SubRas” necesita unos datos de entrada, para saber por donde está definida el área
útil. Esta área no es siempre la misma en cada imagen, puesto que debido a un ángulo de incidencia
mayor a 0 al momento de la toma, se registran más columnas de las 3000 que corresponden a una
toma vertical (ángulo de incidencia = 0). El programa requiere la siguiente información: primera fila
donde comienza la información, primera columna, número de filas y número de columnas. Además,
habrá que especificar el nombre del mapa de salida. De esta manera se puede copiar la parte útil y
asignar el nombre que debe tener.

 Despliegue el mapa raster “xs1" (la banda 3). Amplíe la ventana superior izquierda
para determinar en que fila comienza la información útil. Note que en la parte inferior
izquierda de la ventana se indica la fila y columna donde está ubicado el mouse.
Anote los datos en la tabla a continuación. Asimismo, anote en la siguiente tabla la
primera columna, y calcule tanto el número de filas como el número de columnas.
Repita el proceso para el mapa raster “p”.

©
X. Bakker - 2001 17 Visualización de bandas
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

Información Información
multiespectral pancromática
Primera Fila
Primera Columna
Número de Filas
Número de Columnas

 Entre al programa “SubRas” y cree los siguientes sub-mapas especificando los datos
de filas y columnas de la tabla anterior (prenda la opción “Show” en la caja del
dialogo):

Sub-mapa “x3" desde el mapa “xs1"


Sub-mapa “x1" desde el mapa “xs2"
Sub-mapa “x2" desde el mapa “xs3"
Sub-mapa “pan" desde el mapa “p"

Muestre los resultados al profesor.

Ahora se pueden romper los enlaces de dependencia y borrar las bandas originales.

©
X. Bakker - 2001 18 Visualización de bandas
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

3.6 Pixeles y números digitales


En este ejercicio se comienza a trabajar sobre los datos de la Sabana de Bogotá. Cambiese al
subdirectorio “curso” del directorio “CPDI".

En este directorio se encuentran los siguientes objetos de datos:

Mapas raster “x1", “x2" y “x3" correspondientes a una ventana de las bandas 1, 2 y 3
respectivamente de la imagen multiespectral tomada sobre la Sabana de Bogotá.

Mapa de polígonos “xcab2", correspondiente al mapa de cabeceras municipales

Mapa de polígonos “xlag", correspondiente al mapa de lagunas

Mapa de segmentos “xdren”, correspondiente al mapa de ríos principales

Mapa de segmentos “xvias”, correspondiente al mapa de vías principales

Vista de mapas “xgeoref”, vista con los layers necesarios para la georeferenciación

El sensor detecta la radiancia media de una parcela de terreno equivalente al tamaño del pixel, unidad
visual más pequeña que aparece en la imagen. Este valor se traduce por el sensor en un valor
numérico, a partir del cual se realiza el tratamiento digital de imágenes. En consecuencia, cada pixel
contiene la traducción de la radiación recibida por el sensor de una determinada banda del espectro.
Este valor se denomina “Nivel Digital” o “Número Digital” (ND) y puede ser desplegado en escala
de grises (intensidad luminosa) [2].

En este ejercicio anotarán que respuesta espectral tienen las diferentes bandas de la imagen
multiespectral.

 Despliegue las bandas 1, 2 y 3. Cuando se ubique sobre un elemento en el mapa


raster, se puede oprimir el botón a la izquierda del mouse y esto tendrá como
resultado el despliegue del “número digital” (ND) para el pixel donde está ubicado el
mouse. De esta manera llene la siguiente tabla con los rangos de ND para cada
cobertura:

Cobertura Banda 1 - XS Banda 2 - XS Banda 3 - XS


Bosque - - -
Páramo - - -
Cuerpos de agua - - -
Construcciones - - -
Zonas Cultivadas - - -

Existen elementos que no son incluidos en estas clases: por ejemplo, en medio de los cultivos existen
viveros que dan una respuesta muy elevada debido al material de los techos (vidrio y/o plástico).

©
X. Bakker - 2001 19 Visualización de bandas
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

4. MEJORAMIENTO DE LAS IMÁGENES


El rango máximo de ND debe aplicarse a las diferentes coberturas que puede detectar el sensor, desde
las de muy baja reflectividad de los cuerpos de agua hasta las de muy alta reflectividad de desiertos
o nevados. Puesto que es difícil encontrar en una escena tal variedad de coberturas, una imagen
normalmente no utiliza el rango completo de ND permitido.

Los procesos de ajuste del contraste tienden a adaptar la resolución radiométrica de la imagen a la
capacidad del monitor de visualización. En caso que el sensor ofrezca un menor número de ND que
el monitor puede procesar, se puede aplicar una expansión del contraste original. Cuando el sensor
presenta un número de ND que excede la capacidad del sistema se debe aplicar una reducción. Hoy
en día los computadores ya no constituyen una limitación.

Aparte del mejoramiento de contraste, que se aplica globalmente, existe el mejoramiento espacial que
influye en el contraste local entre diferentes elementos en la imagen.

4.1 Mejoramiento del contraste


En el capítulo anterior desplegamos varias imágenes. Quizás usted notó que en la caja del dialogo
para especificar las opciones del despliegue por defecto se aplica la opción “stretch”. Al quitar la
opción de “stretch” la imagen se despliega asignando negro cuando el ND es 0 y blanco cuando el
ND es 255. A los ND intermedios se asignan escalas de gris. Puesto que los ND en una imagen
normalmente están concentrados en un rango limitado de los valores 0 hasta 255, el resultado que
se despliega tiende a tener poco contraste.

 Despliegue la banda 3 y en la caja del dialogo apague la opción “stretch” y oprima


“OK”. Observe el resultado. Entre al menú de “Layers”, “Display Options” y “1 map
x1". En la caja del dialogo prenda la opción “stretch”. Note como el contraste de la
banda se ha incrementado.

En el siguiente ejercicio se calcularán los histogramas de las imágenes y luego se aplicarán una
expansión lineal para el despliegue adecuado de la información.

4.1.1 Cálculo del histograma


Un histograma es una tabla que para cada ND contiene información sobre la cantidad de pixeles con
este valor. Con base en el histograma se pueden determinar los rangos de expansión para su
despliegue y/o tratamiento digital.

 Seleccione la banda 1 “x1", oprima el botón derecho del mouse y en el menú sensitivo al
contexto seleccione la opción “Statistics” y luego “Histogram”. En la caja del dialogo
oprima el botón “OK”.

©
X. Bakker - 2001 20 Mejoramiento de las imágenes
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

Se calculará el histograma de la banda 1. Se presentará una tabla con las siguientes columnas:

dominio image La primera columna no tiene nombre, puesto que es el dominio (image)
npix Número de pixeles por valor especificado en el dominio
npixpct Número de pixeles por valor del dominio en porcentaje del total de pixeles
pctnotzero Número de pixeles en porcentaje del total, excluyendo el valor 0
npixcum Número de pixeles acumulativo
npcumpct Número de pixeles acumulativo en porcentaje del total de pixeles.

Normalmente la opción “stretch” excluye el primer y el último 1 porciento del histograma. Es decir,
cuando miramos en la columna “npcumpct” donde tiene un valor cerca a 1 y cerca a 99, podemos
concluir que se está usando el rango 56 hasta 175. Verifique si este rango corresponde al rango que
aparece por defecto al prender la opción “stretch” en la caja del dialogo.

Establezca los valores mínimos y máximos para la exclusión del 2, 5 y 10% y llene la siguiente tabla:

BANDA 1 Porcentaje Valor mínimo Valor máximo

2%
5%
10%

Luego aplique estos valores en el despliegue.

Repita el proceso para las bandas 2 y 3:

BANDA 2 Porcentaje Valor mínimo Valor máximo

2%
5%
10%

BANDA 3 Porcentaje Valor mínimo Valor máximo

2%
5%
10%

©
X. Bakker - 2001 21 Mejoramiento de las imágenes
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

4.1.2 Expansión lineal


La relación entre el nivel de visualización (NV) o la intensidad y el ND original puede ser expresada
por medio de la siguiente fórmula:

NV = s + g * ND
donde “s” es el sesgo y “g” representa la ganancia. Al utilizar los valores NDmin y NDmax y asignar al
mínimo la intensidad 0 (negro) y al máximo la intensidad 255 (blanco) se pueden determinar las
variables “s” y “g”[2]: 255
g=
N D m ax − N D m in

y
− 2 5 5 * N D m in
s=
N D m ax − N D m in

Normalmente no se utilizan los valores mínimos y máximos de la imagen. ILWIS utiliza por defecto
un rango que excluye “1%”, es decir el 0% hasta 1% y 99% hasta 100% serán excluidas en la
determinación de los valores de expansión.

Imagen original Imagen mejorada

Histograma original Histograma mejorada

©
X. Bakker - 2001 22 Mejoramiento de las imágenes
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

La expansión lineal se puede aplicar durante el despliegue, mediante la opción “stretch” (la cual está
prendida por defecto), pero también se puede generar un nuevo mapa raster en donde se registran los
valores resultados de la expansión. Esto se hace por medio del programa “stretch”.

Existen varias maneras de accesar el programa de expansión lineal:



Seleccionando del listado de operaciones la opción “stretch”


Escribiendo en la línea de comando la palabra “stretch”, luego presionando <Enter>
Ubicando el mouse sobre el mapa raster de interés, luego oprimir el botón derecho del
mouse, seleccionar “Image Processing” y luego la opción “Stretch”.

En este ejercicio creamos las tres bandas mejoradas aplicando la expansión lineal de exclusión del 1%
del histograma:

 Seleccione la banda 1 “x1", oprime el botón derecho del mouse y en el menú sensitivo al
contexto seleccione la opción “Image Processing” y luego “Stretch”. El método de
expansión lineal (“Linear Stretching”) está seleccionado por defecto. La opción “Stretch
From” está configurada para el uso de porcentajes y el valor del porcentaje para excluir
es 1. Escriba como nombre de salida “x1str”, prenda la opción “Show” y oprima el botón
“OK”.

Repite el proceso para las bandas 2 y 3.

4.1.3 Comparación de la imagen original con la imagen mejorada


En este ejercicio desplegaremos las tres bandas con y sin expansión lineal con el fin de evaluar el
efecto del proceso de mejoramiento.

 Despliegue la banda 1 “x1" y apague la opción “stretch”. Luego despliegue la banda 1


mejorada “x1str” y compare las diferencias.

Repita el proceso para las bandas 2 y 3.

Para cual banda es menos notorio el efecto del mejoramiento:

Explique por que:

©
X. Bakker - 2001 23 Mejoramiento de las imágenes
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

4.1.4 Ecualización del histograma


La expansión lineal del contraste no tiene en cuenta las características del histograma de la imagen,
sino sólo sus extremos. Puede idearse una técnica de realce más depurada, en donde se considere la
forma de la distribución de frecuencias en los ND originales. Según este criterio, la intensidad de cada
ND está en proporción no sólo a su valor, sino también a su frecuencia. Aquellos ND con mayor
número de pixeles serán los que proporcionalmente, ocupen un mayor número de niveles de
visualización [2].

Teóricamente el histograma mejorado trata de describir una linea horizontal, donde cada nivel de
visualización (NV) tiene un igual número de pixeles asignado. Sin embargo, en la práctica siempre
habrán ND que tienen una mayor cantidad de pixeles y por lo tanto no pueden ser divididos. Véase
el ejemplo abajo, donde existen elementos (p.ej. las construcciones en tonos claros) que tendrán un
número de pixeles mayor al promedio que teóricamente se asigna a cada intensidad de gris.

Imagen original Imagen mejorada

Histograma original Histograma mejorada

En el siguiente ejercicio creamos tres nuevos mapas raster (“x1ecua”, “x2ecua” y “x3ecua”) por
medio de ecualización del histograma de las bandas originales.

 Entre al programa “Stretch”. Seleccione el método de ecualización del histograma


(“Histogram Equalization”) y deje los 256 intervalos. Note que por defecto la opción
“Stretch From” está configurada para el uso de porcentajes y el valor del porcentaje para
excluir es 0. Escriba como nombre de salida “x1ecua”, prenda la opción “Show” y oprima
el botón “OK”.

©
X. Bakker - 2001 24 Mejoramiento de las imágenes
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

Repita el proceso para las bandas 2 y 3, creando los mapas raster “x2ecua” y “x3ecua”
respectivamente.

Explique por que el valor por defecto del porcentaje es 0% para ecualización del histograma y es el
1% para expansión lineal:

Despliegue gráficos de los histogramas de los mapas “x1", “x1str” y “x1ecua” simultáneamente y
compare los resultados.

4.2 Mejoramiento espacial


Los mejoramientos visto hasta el momento son “mejoramientos globales”, es decir se aplican para
cada pixel en la misma forma y no se altera por diferencias con los valores de los pixeles vecinos ni
por el valor que tenga el mismo pixel. En esta nueva sección se trata de mejoramientos espaciales
donde la relación de un pixel con sus vecinos es substancial. El mejoramiento espacial se hace por
medio de filtros. Un filtro se aplica en el procesamiento digital de imágenes para aislar componentes
de interés. Los filtros aplicados sobre la imagen pretenden suavizar o reforzar los contrastes
espaciales presentes en los ND que la componen. En otras palabras, se trata de transformar los ND
originales, de tal forma que se parezcan o diferencien más los de correspondientes a pixeles vecinos
[2].

4.2.1 Filtros de paso bajo


Los filtros de paso bajo tienen por objetivo suavizar los contrastes espaciales presentes en la imagen.
En pocas palabras, se trata de asemejar el ND de cada pixel al de los pixeles vecinos, reduciendo la
variabilidad espacial de la escena. El resultado saldrá menos nítido y más difuminado [2]. Se aplica
por ejemplo para reducir el efecto “Speckle” en imágenes RADAR.

Existen varias maneras de accesar el programa para filtrar una imagen:



Seleccionando del listado de operaciones la opción “Filter”


Escribiendo en la línea de comando la palabra “Filter”, luego presionando <Enter>
Ubicar el mouse sobre el mapa raster de interés, oprimir el botón derecha del mouse,
seleccionar “Image Processing” y luego la opción “Filter”.

En el siguiente ejercicio se aplica un filtro de paso bajo a la banda 1.

 Entre al programa “Filter”. El tipo de filtro por defecto es “Linear”. Seleccione el nombre
del filtro “avg3x3" en la opción “Filter Name”. Escriba como nombre de salida “x1avg”,
prenda la opción “Show” y oprima el botón “OK”.

Despliegue la banda 1 original y haga unas ampliaciones de la vía que pasa por el norte del Embalse
de Tominé tanto de la banda original como de la banda 1 filtrada. Observe las diferencias.

©
X. Bakker - 2001 25 Mejoramiento de las imágenes
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

4.2.2 Filtros de paso alto


Este tipo de filtro pretende aislar los componentes de alta frecuencia en una imagen. En términos
espaciales, esto supone remarcar digitalmente los contrastes espaciales entre pixeles vecinos,
enfatizando los rasgos lineales presentes en la imagen, como carreteras, parcelas o accidentes
geológicos. En definitiva, se intenta reforzar los contornos entre áreas homogéneas, evidenciando
cualquier discontinuidad [2].

En el siguiente ejercicio se aplica el filtro de paso alto (“Edge Enhancement”) a la banda 1.

 Entre al programa “Filter”. El tipo de filtro por defecto es “Linear”. Seleccione el nombre
del filtro “edgesenh" en la opción “Filter Name”. Escriba como nombre de salida “x1edge”,
prenda la opción “Show” y oprima el botón “OK”.

Despliegue la misma ventana para el mapa raster “x1edge” y compare con la banda 1 original y el
mapa “x1avg”. Observe las diferencias.

El mapa “x1edge” tiene errores en las partes donde todos los vecinos tiene un ND cerca al máximo
(partes que aparecen en blanco, resultan con puntos negros adentro). Consulte al profesor como
corregirlo.

4.2.3 Explicación adicional sobre el funcionamiento de filtros


En el punto 3.2.1 aplicamos un filtro de paso bajo. Abajo aparece el contenido de la matriz que
conforma el filtro llamado “avg3x3":

1 1 1

1 1 1

1 1 1

Gain: 0.11111 Offset: 0

Un filtro utiliza los valores de los vecinos para escribir el resultado en el pixel central. La formula es
la siguiente:
vecinos1
Pixelcentral
M
n
1
Valordelmapan Valordelfiltron Gain  Offset

©
X. Bakker - 2001 26 Mejoramiento de las imágenes
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

Abajo se muestra el proceso de aplicar el filtro “avg3x3":

2 8 4 1 1 1

6 7 3 1 1 1 ” 5

4 5 6 1 1 1

Mapa entrada Filtro Mapa Salida

Pixelcentral
2 1  8 1  4 1  6 1  7 1  3 1  4 1  5 1  6 1 0.11111  0

El Gain (0.11111)  1/9, así que se hace un promedio de los vecinos (incluyendo el valor central) y
se escribe el resultado en el mapa de salida en el pixel central. En esta forma se va moviendo el filtro
sobre el mapa entero para escribir el mapa de salida.

Abajo se pretende aplicar el filtro “edgesenh” a un mapa de 3 por 3 pixeles, calcule los valores del
mapa de salida:

2 8 4 -1 -1 -1

6 7 3 -1 16 -1 ”
4 5 6 -1 -1 -1

Mapa entrada Filtro Mapa Salida


Gain: 0.125 y Offset: 0

Como es obvio este filtro ampliará las diferencias que tiene el pixel central con sus vecinos.

©
X. Bakker - 2001 27 Mejoramiento de las imágenes
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

ILWIS ofrece una gran escala de filtros, incluyendo la posibilidad que el usuario defina sus propios
filtros.

Qué hace el siguiente filtro:

2 8 4 0 0 0

6 7 3 0 2 0

4 5 6 0 0 0
Mapa de Entrada Filtro Mapa de Salida
Gain: 0.5 y Offset: 0

Nota: Es importante entender que no se deben usar filtros cuando el objetivo es la


clasificación multiespectral de la imagen. Esto es debido a que los filtros cambian los
ND que están directamente ligados a la cobertura de la superficie de la tierra. Cuando
se cambian estos valores, se puede perder la relación con la superficie de la tierra que
están representando.

©
X. Bakker - 2001 28 Mejoramiento de las imágenes
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

5. VISUALIZACIÓN DE INFORMACIÓN MULTIBANDA


La información multiespectral archivada en bandas separadas pueden ser combinada en una sola
composición a color. Existen muchas posibles combinaciones que se pueden efectuar por medio de
éste proceso. Información espectral de diferentes bandas se combinan asignando cada banda
individual a uno de los colores principales: ROJO, VERDE y AZUL.

Observe el siguiente gráfico donde se esta efectuando una composición a color:

A la izquierda está desplegada la información en escala de grises de tres diferentes bandas, en el


centro se asigna uno de los tres colores principales a las diferentes bandas y luego a la derecha está
el resultado de la composición a color.

Una combinación específica de bandas utilizada para crear una composición a color se llama
composición a falso color (FCC, False Color Composite). En una FCC el color rojo se asigna a la
banda con la información del terreno obtenida del espectro infrarrojo cercano, el color verde se asigna
a la información obtenida del espectro rojo visible y el color azul se asigna a la información obtenida
del espectro verde visible. Para las imágenes multiespectrales de SPOT la banda 3 se despliega en
color rojo, la banda 2 en color verde y la banda 1 en color azul. Este combinación RGB (rojo verde
azul) se llama RGB 321. En la composición que resulta se puede observar la vegetación en tonos de
rojo, el agua en azul y suelos desnudos se destacan en tonos de café y gris.

Algunas composiciones pueden dar un resultado similar como nosotros percibimos la cobertura:
vegetación en verde, cuerpos de agua en azul y suelos (desnudos) en un café claro. Estos tipos de
composiciones se llaman composiciones pseudo naturales.

©
X. Bakker - 2001 29 Visualización de información multibanda
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

La razón por la cual se están utilizando más frecuente las composiciones a falso color que las
composiciones pseudo naturales, es que las diferentes coberturas se destacan mejor en las
composiciones a falso color.

Las composiciones no solamente se pueden realizar con información multiespectral (información de


diferentes rangos del espectro tomadas en el mismo momento), sino también con información
multitemporal. En el procesamiento de imágenes RADAR normalmente se aplica las composiciones
multitemporales puesto que RADAR provee únicamente 1 sola banda. En caso de que un elemento
no se ha cambiado en el transcurso del tiempo, este elemento resulta en tonos de gris, puesto que la
intensidad de los colores principales es la misma. Donde se visualizan colores distintos a tonos de
gris, indica que se ha cambiado la cobertura.

Composición multitemporal con imágenes ERS del año 1992: 22 de diciembre desplegado en rojo,
4 de agosto en verde y 26 de mayo en azul [1]. Las zonas en tonos de gris no han sufrido cambios,
partes en diferentes colores indican incremento o disminución de la respuesta espectral.

Dentro de las composiciones multiespectrales también se incluyen las que se generan con base en
bandas, las cuales son el resultado de un análisis. La utilización de componentes principales es un
ejemplo y la combinación de bandas provenientes de diferentes sensores (sinergismo) como SPOT
pancromática (resolución 10m) con SPOT multiespectral (resolución 20m) es otro.

5.1 Composición a color


En ILWIS 2 las composiciones a color son generadas en el disco duro y presentadas en la pantalla.
En la versión 2.2 de ILWIS la nueva posibilidad de generar la composición a color en pantalla fue
incorporada para ajustar los rangos de estiramiento de cada banda hasta obtener el resultado deseado
sin la necesidad de ocupar espacio en el disco duro de productos intermedios.

©
X. Bakker - 2001 30 Visualización de información multibanda
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

Cada banda se asigna a un color principal. La figura abajo muestra el cubo de colores con los colores
principales del sistema aditivo (rojo, verde y azul) y del sistema substractivo (amarillo, magenta y
cyan).
Verde Amarillo

Cyan Blanco

Negro Rojo

Azul Magenta

La combinación de un elemento con baja intensidad en las tres bandas resulta en un color oscuro, al
otro lado un elemento con alta intensidad en las tres bandas resulta en un color claro. Cada punto
dentro del cubo representa un diferente color dependiendo de la contribución de los componentes
rojo, verde y azul.

En ILWIS la relación entre el valor del pixel de imágenes multibanda y el color asignado a cada pixel
se guarda en la representación. La representación guarda las valores de rojo, verde y azul. El valor
para cada color principal representa la intensidad, utilizando un rango de 0-255. Las tres intensidades
combinadas definen el color. Por ejemplo, intensidad de rojo = 255, verde = 0 y azul = 0 resulta en
un color rojo. Además, el dominio asignado a la composición a color es “color”.

ILWIS permite la generación de tres tipos de composiciones a color: 24 bits, estándar y dinámico.
Para las composiciones a 24 bits y las estándar se pueden definir diferentes funciones de estiramiento.

El método de la generación de una composición dinámica utiliza el algoritmo de Heckbert. Este


algoritmo está basado en la diferencia en los valores de los pixeles de las tres bandas de entrada. Cada
pixel de las tres bandas se ubica en el cubo de colores, luego se divide el cubo en dos volúmenes y
para cada parte se calculan los puntos que están dentro y la parte con la mayor cantidad de puntos
se divide de nuevo, repitiendo el proceso hasta obtener los partes indicadas por el usuario.

Finalmente, el color asignado a cada grupo de pixeles es el centro del volumen del grupo de pixeles
generado en la subdivisión. En caso que se esté interesado en una imagen completa la opción
dinámica es la mejor opción. En caso que el usuario esté interesado en un rango limitado del espectro
de la imagen, la mejor opción es la composición a color estándar, puesto que mediante el histograma
se puede destacar mejor ciertos rangos del espectro.

©
X. Bakker - 2001 31 Visualización de información multibanda
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

El método estándar subdivide los ejes del cubo de colores en 6 partes iguales. De esta manera se
obtiene 6x6x6 = 216 posibles colores (utilizando el formato 1 byte). Es fácil de entender que tanto
la opción dinámica como la opción estándar tiene una limitación en la cantidad de colores a utilizar
para el resultado. La opción 24 bits utiliza las 256x256x256 = 16'777.216 colores, pero utiliza 4 bytes
por pixel para guardar el resultado (4 veces el tamaño de las opciones dinámica y estándar).
Solamente en caso de tener restricciones de espacio en el disco duro o limitaciones en la resolución
de la pantalla se deben aplicar las opciones dinámica y estándar.

5.1.1 Composiciones a falso color


En este ejercicio se utilizarán las imágenes SPOT multiespectrales del área de estudio para generar
una composición a falso color. Se puede hacer una composición a color en diferentes formas: creando
el mapa raster en el disco duro o combinando las bandas que están en un listado de mapas.

5.1.1.1 Composiciones a falso color, creando un mapa físico


Para crear un mapa físico (en el disco duro) de una composición a color (ya sea falso color o color
pseudo natural) se use el programa “MapColorComp”.

Existen varias maneras de accesar el programa “MapColorComp”:

 Seleccionando del listado de operaciones la opción “Colorcomp” con el icono que se


parece más al icono de un mapa raster (la primera).
Escribiendo en la línea de comando la palabra “MapColorComp”, luego presionando


<Enter>
Seleccionado en el menú “Operations” la opción “Image Processing” y luego la
opción “Color Composite”.

En el siguiente ejercicio creamos una composición a falso color de la información multiespectral.

 Entre al programa “MapColorComp”. En caso que la configuración del monitor es de color


real 24bits o 16bits, la opción “24 bit” estará prendida. Normalmente se usa expansión
lineal (seleccionada por defecto) y modo “RGB” (Rojo, Verde y Azul) utilizando exclusión
del 1% del histograma para todas las bandas. Seleccione para la banda Roja el mapa
raster “x3", para Verde el mapa “x2" y para azul el mapa “x1" . Escriba como nombre de
salida “xcomp321”, prenda la opción “Show” y oprima el botón “OK”.

En esta composición a falso color (la composición convencional de las tres bandas de SPOT) la
vegetación aparece en rojo. Se observa que se distingue más fácilmente las diferentes coberturas que
usando una sola banda.

©
X. Bakker - 2001 32 Visualización de información multibanda
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

Como fue explicado en la parte teórica de este curso, estamos utilizando, además de información
visible del espectro electromagnético, información de la parte infrarrojo del espectro, con el fin de
poder distinguir coberturas las cuales serían difícil o imposible de distinguir si hubiéramos utilizada
únicamente información de la parte visible del espectro. Ver abajo el espectro electromagnético con
sus diferentes usos dependiendo de la longitud de onda:

Llene la siguiente tabla describiendo el color para cada cobertura:

Cobertura Color
Bosque
Páramo
Suelos desnudos
Cuerpos de agua
Construcciones
Zonas Cultivadas
Nubes
Sombras de Nubes

Usted cree que estas coberturas son separables en una clasificación multiespectral?

©
X. Bakker - 2001 33 Visualización de información multibanda
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

5.1.1.2 Composiciones a falso color, usando un listado de mapas


Un listado de mapas (como se ha explicado en el curso de inducción) es un objeto de datos que hace
referencia a varios mapas raster con el mismo dominio. En este caso podemos hacer un listado de
mapas para las tres bandas originales de la información multiespectral.

Existen varias maneras para crear un listado de mapas:



Seleccionando del listado de operaciones la opción “New MapList”.
Escribiendo en la línea de comando la palabra “create mpl”, luego presionando


<Enter>
Seleccionado en el menú “File” la opción “Create” y luego la opción “Map List”.

En este ejercicio se creará un listado de mapas con el fin de desplegarlo como composición a color.

 Cree un listado de mapas con el nombre “x123". Seleccione del listado a la izquierda el
mapa raster “x1" y oprima el botón con el signo mayor que (“>”) para adicionarlo al listado
a la derecha. Repita este proceso con las bandas 2 y 3 y oprima el botón “OK”.

Observe que en la ventana principal de ILWIS aparece el icono del listado de mapas con el nombre
“x123". Ahora despliegue el listado de mapas como composición a falso color.

 Haga doble clic sobre el icono del listado de mapas “x123". Aparece una ventana del
dialogo donde se debe especificar las bandas (mapas raster del listado) que se asignarán
a los colores principales. Note que por defecto el primer mapa raster del listado de mapas
se asigna al color azul, el segundo mapa al verde y el tercer mapa al color rojo. Los
valores que aparecen al lado derecho de las bandas son los rangos que corresponden al
1% del histograma, utilizando la expansión lineal. Oprima el botón “OK”.

La ventaja que tiene esta forma de hacer una composición a color es que se puede cambiar los rangos
de expansión lineal sin la necesidad de crear mapas físicos (en el disco duro). Con el método
convencional se crea un mapa raster en el disco duro.

5.1.2 Composiciones a color (pseudo)-natural


Con ILWIS a partir de las imágenes de SPOT multiespectral (3 o 4 bandas, con o sin información
pancromática) se pueden hacer composiciones a color pseudo-natural, generando información
pseudo-verde. Puesto que esto implica el proceso de “Sinergismo” (cálculos aritméticos complejos
que demoran bastante tiempo), no se ha incluido esta operación en el curso básico de procesamiento
digital de imágenes con ILWIS para Windows.

©
X. Bakker - 2001 34 Visualización de información multibanda
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

6. GEOREFERENCIAR IMÁGENES
Las imágenes de satélite se ven afectadas por distorsiones, causadas por la misma geometría del
sensor, rotación y curvatura de la tierra, etc. Algunos de estas distorsiones, dependiendo del nivel de
pre-procesamiento, son corregidas por SPOT Image. Otras pueden ser corregidas mediante la
corrección geométrica, previa realización de la georeferenciación.

& La georeferenciación consiste en asignar coordenadas a las filas y columnas de la imagen.


& La corrección geométrica consiste en mover los pixeles a su ubicación corregida, es decir
creando una nueva matriz, correctamente posicionada, traspasando los ND de la imagen
original a esa nueva matriz.

Puesto que la corrección geométrica implica el cambio de los valores ND, se recomienda aplicarlo
únicamente a los resultados de la clasificación (ver capítulo 9).

6.1 Georeferenciación por medio de especificación de las coordenadas de las esquinas


En ILWIS se puede crear una georeferenciación de diferentes maneras. En caso que se reciba una
imagen geométricamente corregida, se puede usar una sencilla georeferenciación de esquinas. Este
tipo de georeferenciación únicamente se crea a partir de extensión de coordenadas (es decir: Xmin,
Ymin, Xmax y Ymax) y el tamaño del pixel. Se asume que la imagen está orientada hacia el Norte y que
todos los pixeles son cuadrados con igual tamaño.

En este ejercicio no trabajamos a partir de imágenes geométricamente corregida, pero en el capítulo


8 necesitaremos una georeferenciación de esquinas para efectuar la corrección geométrica.

6.2 Georeferenciación por medio de puntos de control


La fase más crucial del proceso de georeferenciación es el establecimiento de puntos de control, y por
lo tanto demanda mayor dedicación. Para asegurar que el ajuste del mapa sea correcto, se debe
establecer un suficiente número de puntos de control, tener la precisión adecuada en los puntos y
distribuirlos para cubrir todos los extremos de la imagen. Aunque, con 3 puntos y una transformación
“Affine” se puede establecer la georeferenciación, se recomienda utilizar más de 25 puntos de control
para una imagen SPOT. Obviamente, esto solamente es posible en áreas desarrolladas, donde haya
construcciones y vías. Es importante que la fecha de la fuente (un mapa base análogo o un mapa
georeferenciado) está lo más cercano a la fecha de la toma, con el fin de tener más certeza acerca la
precisión de los puntos y coincidencia del punto a usar como punto de control. Además cuando haya
diferencias en la fecha de las fuentes, no se pueden usar elementos dinámicos (es decir que se vayan
cambiando en el tiempo); tales como ríos, límites de las cascos urbanos, etc.

©
X. Bakker - 2001 35 Georeferenciar imágenes
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

6.2.1 Funciones de transformación


Como se ha hablado en el párrafo anterior, existen diferentes transformaciones para establecer la
precisión de la georeferenciación. La georeferenciación pone en relación las coordenadas de la imagen
con las del mapa estableciendo una función matemática. De esta forma, a partir de las coordenadas
columna y linea de cada pixel, se puede estimar las coordenadas X y Y de la imagen de salida.

Observe a continuación el listado de las transformaciones que ILWIS soporta:

“Conformal” Mínimo de 2 puntos de control


Fórmula:
Columna = aX + bY + c1
Fila = bX - aY + c2

“Affine” Mínimo de 3 puntos de control


Fórmula:
Columna = a11X + a12Y + b1
Fila = a12X + a22Y + b2

“Second order bilinear” Mínimo de 4 puntos de control


Fórmula:
Columna = a1 + b1X + c1Y + d1XY
Fila = a2 + b2X + c2Y + d2XY

“Full second order” Mínimo de 6 puntos de control


Fórmula:
Columna = a1 + b1X + c1Y + d1XY + e1X² + f1Y²
Fila = a2 + b2X + c2Y + d2XY + e2X² + f2Y²

“Third order” Mínimo de 10 puntos de control


Fórmula:
Columna = a1 + b1X + c1Y + d1XY + e1X² + f1Y² + g1 X³ + h1 X²Y + i1XY² + j1 Y³
Fila = a2 + b2X + c2Y + d2XY + e2X² + f2Y² + g2 X³ + h2 X²Y + i2XY² + j2 Y³

“Projective” Mínimo de 4 puntos de control


Fórmula:
Columna = (aX + bY + c) / (gX + hY +1)
Fila = (dX + eY + f) / (gX + hY + 1)

©
X. Bakker - 2001 36 Georeferenciar imágenes
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

Por defecto la transformación “Affine” está seleccionada. Esta transformación necesita 3 puntos de
control. Al ingresar más que tres puntos se puede generar una óptima triangulación y para cada punto
de control se puede determinar su desajuste (diferencia en X y Y expresada en pixeles) con respecto
a la triangulación. El desajuste global es calculado por medio de la desviación estándar del error
medio cuadrado, llamado “sigma”.

Utilizaremos para la georeferenciación una transformación de “Full second order” y, puesto que
estamos trabajando sobre una ventana de una imagen de satélite, un mínimo de 15 puntos de control.

6.2.2 Puntos de control a parir de mapas análogos


Anexados a este documento se encuentran 4 hojas con ventanas de un mapa a escala 1:100.000 del
área de estudio. A primera vista se puede identificar elementos comunes los que hemos visto en la
imagen también se encuentran en la cartografía análoga.

Para georeferenciar por medio de puntos de control identificados en un mapa análogo, se debe crear
una georeferenciación de tipo “Tiepoints” (puntos de control).

Existen varias maneras para crear una georeferenciación:



Seleccionando del listado de operaciones la opción “New GeoRef”.
Escribiendo en la línea de comando la palabra “create grf”, luego presionando


<Enter>
Seleccionando en el menú “File” la opción “Create” y luego la opción “Georeference”.

En este ejercicio se creará una georeferenciación de puntos de control ubicados en el mapa análogo.
Puesto que es más fácil encontrar los puntos de control en la composición a color, utilizarán este
mapa como fondo para la georeferenciación.

 Cree una georeferenciación con el nombre “pcmana”. Seleccione la opción “GeoRef


Tiepoints”. Especifique el mapa “xcomp321" como fondo (“Background Map”) y oprima
el botón “OK”. Acepte los opciones del despliegue.

Se abre una ventana con la composición a color y otra ventana denominada “GeoReference Editor”.
Busque en el mapa análogo y en la composición los puntos que representan el mismo elemento
(preferiblemente intersecciones de vías). Haga ampliaciones en la ventana de la composición. Observe
que el mouse es como un lápiz. Con el punto (izquierdo abajo) se debe indicar el elemento que se
utilizará como punto de control (hacer clic con el botón izquierdo del mouse). Esto hace aparecer una
ventana llamada “Add Tie Point” donde se identifica el número de fila y columna del pixel picado.
En esta ventana se tendrán que especificar las coordenadas X y Y determinadas en el mapa análogo.

Al especificar tres coordenadas aparecen en la parte inferior de la ventana de la composición las


coordenadas X y Y determinados con base en la transformación “Affine”.

©
X. Bakker - 2001 37 Georeferenciar imágenes
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

Al especificar más de tres puntos la ventana “GeoReference Editor” mostrará el sigma en la parte
superior de la ventana. También para cada punto se desplegará su desviación en pixeles, tanto en filas
como en columnas (ver las columnas “DRow” y “DCol” respectivamente).

 Entre en la ventana “GeoReference Editor” al menú “Edit” y luego a la opción


“Transformation”. En la ventana que aparece seleccione la transformación “Full Second
Order” y oprima el botón “OK”.

Recuerde que necesitamos seleccionar al menos 15 puntos de control. Numera los puntos de control
en el mapa análogo.

El SIGMA puede clasificarse de la siguiente manera:

Valor Explicación
0-1 Buena georeferenciación. Sin embargo para un proceso de Sinergismo entre SPOT pan
y SPOT multiespectral se requiere un SIGMA menor a 0.5.
1-2 Georeferenciación aceptable para áreas rurales, no aceptable para zonas urbanas.
>2 Georeferenciación aceptable para zonas difíciles de georeferenciar (Amazonas, etc). No
es aceptable para zonas rurales ni para zonas urbanas.

Consulte con el profesor como desactivar puntos de control que tienen una desviación mayor a la
requerida con el fin de obtener un sigma apropiado.

6.3.3 Puntos de control a partir de mapas digitales


Como ya se han experimentado en el ejercicio anterior, el trabajo de extraer coordenadas del mapa
análogo es bastante dispendioso. Por lo tanto ILWIS cuenta con una forma más eficiente para el
ingreso de coordenadas: a partir de mapas digitales.

 Cree una georeferenciación de puntos de control con el nombre “pcmdig” utilizando la


composición a color como fondo.

Como referencia para la georeferenciación usamos la vista de mapas con el nombre “xgeoref”. Esta
vista contiene información de vías principales (1:25.000), drenajes principales (1:25.000), lagunas y
cascos urbanos. Sin embargo los diferentes elementos de esta vista tienen diferentes fechas de fuentes:
las vías y los drenajes tienen una fuente de información de 1988, los cascos urbanos y las lagunas
fueron digitalizadas desde una imagen de satélite del 1995, la imagen multiespectral de este ejercicio
fue tomada en 1994.

 Despliegue la vista “xgeoref” al lado de la composición a color. Cambie la transformación


a “Full Second Order”.

©
X. Bakker - 2001 38 Georeferenciar imágenes
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

Haga acercamientos al elemento, tanto en la composición como en la vista “xgeoref”. Pique el


elemento en la composición y cuando aparezca la ventana “Add Tie Point”, pique en la vista
“xgeoref” en el mismo elemento y verá que automáticamente aparecen las coordenadas en la ventana.

Seleccione al menos 15 puntos de control y compare tanto la precisión como el tiempo invertido en
la georeferenciación a partir del mapa análogo con la hecha desde el mapa digital. Cual es la
conclusión:

Una vez establecida una georeferenciación aceptable, se debe asignar esta georeferenciación a todas
las bandas:

 Seleccione la banda 1 (“x1") y oprima el botón a la derecha del mouse, luego entre a la
opción “Properties”. En la opción “Georeference”, seleccione la georeferenciación
“pcmdig”.

Repita este proceso para las bandas 2 y 3. Despliegue una banda y adicione una grilla mediante la
opción “Add Annotation”, “Grid Lines”.

Note que cuando se cambia la georeferenciación ILWIS vuelve a calcular una sola vez el histograma
al desplegar el mapa.

Es importante entender la precisión de la cartografía (escala) que se requiere para georeferenciar


una imagen SPOT aceptablemente. Al sacar puntos de control a partir de un mapa análogo se
puede obtener una precisión de aproximadamente 0.5 mm a la escala de trabajo. Con un mapa a
escala 1:100.000, estos 0.5 mm corresponden a 50 metros en la realidad. Con una imagen
multiespectral de 20 metros de resolución estos 50 metros corresponden a 2.5 pixeles lo cual
representa un valor del sigma de 2.5! Por lo tanto para imágenes SPOT multiespectrales con
resolución espacial de 20 metros por pixel se recomienda usar mapas con escalas entre 1:25.000
hasta 1:50.000, y para imágenes SPOT pancromáticas con resolución espacial de 10 metros por
pixel se recomienda usar mapas con escalas entre 1:10.000 hasta 1:25.000.

©
X. Bakker - 2001 39 Georeferenciar imágenes
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

7. OPERACIONES MULTIBANDA
Para mejorar o extraer elementos de imágenes de satélite que no pueden ser distinguidos en una sola
banda, se puede emplear la información de múltiples bandas para destacarlos. Este método se puede
aplicar tanto a imágenes multiespectrales como a imágenes multitemporales.

7.1 Relaciones entre las bandas: variaciones en iluminación


Cuando un satélite registra una imagen mientras el sol no está verticalmente sobre el área de interés,
esto causa diferencias en iluminación en las partes montañosas (véase el gráfico abajo).

Aunque una cobertura puede ser la


misma en ambas costados de la
montaña, el sensor los registra
diferentes debido a variaciones en la
iluminación. Esto puede complicar el
proceso de clasificación multiespectral.

Este efecto es mínimo en las imágenes multiespectrales de SPOT y puesto que tenemos como área
de estudio un altiplano no es muy apreciable en nuestra imagen. Sin embargo, en el siguiente ejercicio
podemos evaluar este efecto.

Para hacer cálculos con varias bandas, cada banda tiene que tener la misma georeferenciación (es
decir, igual tamaño de pixel y ubicación). Los cálculos se pueden ingresar al programa “MapCalc”,
pero también se puede escribir directamente en la línea de comando. Recomendamos escribirlos
directamente en la linea de comando ya que es una forma más rápida para ingresar la fórmula.

 Escriba el la línea de comando la siguiente fórmula y oprime <Enter>:

x2div3=x2/x3
Donde:
x2divx3 Es el nombre del mapa que se va a crear
x2/x3 Es la formula para dividir la banda 2 por la banda 3

En la caja del dialogo acepte los valores del rango y la precisión que salen por defecto.

 Despliegue el resultado (se calcula primero) con la representación “pseudo” y compárelo


con la composición a color. Note que los valores de interés están entre 0.3 y 0.6. Observe
los valores calculados cerca de la columna 1720 y la fila 810.

©
X. Bakker - 2001 40 Operaciones multibanda
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

Emilio Chuvieco [2] determinó que en un estudio realizado alrededor de Madrid, el cociente entre
la banda 4 y la banda 3 de LANDSAT TM (muy similares a las bandas 3 y 2 de SPOT) es el mismo
para cada cobertura sin influencia del sol o de la sombra. Sin embargo, no se puede ajustar la imagen
con este cociente, puesto que es distinto para cada cobertura. Ver tabla abajo:

Banda 4 TM Banda 3 TM Cociente

Frondosas
en sombra 25 20 1.02

en sol 50 40 1.02

Coníferas
en sombra 33 22 1.5

en sol 66 44 1.5

Por lo tanto, para corregir la respuesta espectral registrada en las bandas, se necesita un modelo
digital de elevación y datos técnicos acerca del ángulo del sol, con el fin de determinar la relación
entre el aspecto de la pendiente y la intensidad de iluminación obtenida al momento de la toma.

7.2 Índice de vegetación de diferencia normalizado


El empleo de los cocientes para discriminar masas vegetales se deriva del peculiar comportamiento
radiométrico de estas coberturas (véase el gráfico en la página 1). La firma espectral, característica
de la vegetación sana, muestra un claro contraste entre las bandas visible, especialmente la banda roja
(0.6 )m a 0.7 )m) y las comprendidas en el infrarrojo cercano (0.7 )m a 1.1 )m). Esto corresponde
a la banda 2 de SPOT en el rojo visible y a la banda 3 de SPOT en el infrarrojo cercano. Mientras en
la región visible, los pigmentos de la hoja absorben la mayor parte de la luz que reciben, en el
infrarrojo cercano estas substancias son bastantes transparentes. Por esta razón, la vegetación sana
ofrece baja reflectividad en la banda roja del espectro y alta en el infrarrojo cercano. El contraste con
la vegetación enferma, y sobre todo con los suelos, es bastante evidente en estas dos bandas. Se
puede concluir que cuanto mayor sea el contraste entre los ND de la banda infrarroja y roja, mayor
vigor vegetal presentará la cubierta observada. Bajos valores de contraste indican una vegetación
enferma o escasa, hasta llegar a las cubiertas sin vegetación, que ofrecen un contraste muy pequeño.

El índice de vegetación de diferencia normalizado debe definirse por valores de reflectividad en las
bandas y no directamente a los ND que componen la imagen. Sin embargo, puesto que la obtención
de la masa de la vegetación sale de los objetivos de este curso, se puede aplicar la fórmula
directamente a los ND y así obtenemos una indicación de la masa de vegetación.

©
X. Bakker - 2001 41 Operaciones multibanda
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

La fórmula para el índice de vegetación de diferencia normalizado es la siguiente:

B a n d a IR − B a n d a R
NDVI =
B a n d a IR + B a n d a R

En el siguiente ejercicio generará un índice de vegetación de diferencia normalizado. Esta fórmula


se puede ingresar de dos maneras:

 Escriba el la línea de comando una de las siguientes fórmulas y oprima <Enter>:

ivdn = (x3-x2)/(x3+x2)
o
ivdn = NDVI(x2,x3)

NDVI es una función predefinida en ILWIS, la cual necesita dos parámetros; la banda del visible
(normalmente el rojo visible) x2 y la banda del infrarrojo cercano x3. El resultado es un mapa con
valores en el rango desde -1 hasta 1. En ILWIS existe un dominio predefinido para este rango de
valores el cual se seleccione por defecto al usar la función NDVI: min1to1.

Con el fin de definir una representación especial para este mapa, creemos un dominio con el nombre
“ivdn”:

 En la caja del dialogo “Raster map definition”, haga clic sobre el botón para crear
un nuevo dominio. En la caja del dialogo “create domain” especifique el nombre “ivdn”,
seleccione el tipo de dominio valor y oprima el botón “OK”. Especifique el valor -1 como
mínimo, el valor 1 como máximo, el valor 0.01 como precisión y oprima el botón “OK”.
Luego observe que el nuevo dominio está seleccionado en la caja del dialogo “Raster
map definition” y oprima el botón “OK”. Haga doble clic sobre el icono del mapa “idvn”
para calcular y desplegar el mapa, utilice la representación “pseudo” para el despliegue.

Las cuerpos de agua se despliegan con color azul (el embalse de Neusa con verde), los suelos
desnudos y las zonas construidas con verde y la vegetación con rojo. Con el fin de obtener una mejor
separación de las diferentes coberturas, crearemos una representación (“pericol”) con más colores:

baja vegetación alta vegetación

 En el catálogo de datos seleccione el dominio “ivdn”, oprima el botón derecho del mouse
y seleccione del menú sensitivo al contexto la opción “Create representation”.
Especifique el nombre “ivdn” y oprima el botón “OK”. En la ventana de la representación
cambiemos el número de tonalidades a 50: “Edit”, “Stretch Steps”, cambiar el valor a 50
y oprima el botón “OK” (observe que se esta utilizando más tonalidades). Haga doble clic
sobre el valor 1.00, cambie el color a rojo y oprima el botón “OK”.

©
X. Bakker - 2001 42 Operaciones multibanda
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

Ahora tendremos que insertar más limites con sus correspondientes colores:

 Oprima la tecla “Insertar”, especifique el valor -0.75 y cree un color con intensidad rojo
150, verde 0 y azul 150 (150,0,150). Luego inserte los siguientes límites, según la
siguiente tabla:

Valor Color (R,V,A)

-0.50 (0,0,150)

-0.25 (0,150,255)

0 (0,125,0)

0.25 (0,255,100)

0.50 (255,255,0)

0.75 (175,0,0)

Vuelva a desplegar el mapa “ivdn” y seleccione la representación “ivdn”. Determine con la ayuda
de la composición a falso color “xcomp321" el rango de valores en el índice de vegetación de
diferencia normalizada para las siguientes coberturas:

Cobertura Rango IVDN

Bosque a

Páramo a

Suelos desnudos a

Cuerpos de agua a

Construcciones a

Zonas Cultivadas (fin del ciclo) a

Zonas Cultivadas (comienzo del ciclo) a

Nubes* a

Sombras de los nubes* a

* Note que ni las nubes ni las sombras de las nubes son coberturas.

©
X. Bakker - 2001 43 Operaciones multibanda
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

7.3 Aritméticas de imágenes


Dentro de la parte de aritméticas de imágenes se pueden incluir las operaciones anteriores (índices
de vegetación y relaciones entre bandas). Se trata básicamente de combinar bandas por medio de
fórmulas generando nueva información.. De esta manera se puede generar un mapa con el promedio
de los ND registrados en dos o en las tres bandas:

 Escriba el la línea de comando la siguiente fórmula y oprima <Enter>:

Prom12 = (x1+x2)/2

Asigne el dominio “image” al mapa de salida y despliegue el resultado.

 Escriba el la línea de comando la siguiente fórmula y oprima <Enter>:

Prom13 = (x1+x3)/2

Asigne el dominio “image” al mapa de salida y despliegue el resultado.

 Escriba el la línea de comando la siguiente fórmula y oprima <Enter>:

Prom123 = (x1+x2+x3)/3

Asigne el dominio “image” al mapa de salida y despliegue el resultado. Compare las bandas originales
y los mapas promedios.

Estos promedios no contribuyen en la clasificación, pero son aplicados frecuentemente cuando se


trabajan con imágenes de RADAR. Un cociente que si puede contribuir para separar cuerpos de agua
de las otras coberturas es la siguiente fórmula:

B a n d a IR
R a tio =
B a n d aV

 Escriba el la línea de comando la siguiente formula y oprima <Enter>:

Ratio = x3/x1

Acepte el dominio valor, pero cambie el rango a 0 hasta 5 con precisión 0.01.

©
X. Bakker - 2001 44 Operaciones multibanda
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

Despliegue el resultado y determine los rangos de valores para las siguientes coberturas:

Cobertura Rango en mapa Ratio

Bosque a

Páramo a

Suelos desnudos a

Cuerpos de agua a

Construcciones a

Zonas Cultivadas a

Nubes* a

Sombras de los nubes* a

* Noteque ni las nubes ni las sombras de las nubes son coberturas.

Determine con que rango de valores se pueden distinguir los cuerpos de agua de las demás
coberturas: utilizando un rango de ......... hasta ...........

Otras operaciones multibanda que no han sido incluidas en este curso básico son los componentes
principales, estadísticas multibanda y la creación de mosaicos a partir de múltiples imágenes.

©
X. Bakker - 2001 45 Operaciones multibanda
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

8. CLASIFICACIÓN DE LAS IMÁGENES


Para la mayor parte de los usuarios de la teledetección , la clasificación supone la fase más importante
del procesamiento digital de las imágenes. Las operaciones de los capítulos anteriores están enfocadas
a obtener un mapa de la cobertura. Los ND no tienen sentido en si mismos, sino en cuanto son
interpretables; esto es, convertibles a categorías que supongan un mejor conocimiento del territorio.
Esta interpretación se puede hacer visualmente, o digitalmente (lo que se pretende en este curso).
Como resultado se obtiene un mapa de cobertura que define la localización y/o unas tablas
estadísticas que ofrecen el inventario superficial de las categorías de interés [2].

Puesto que los valores ND no están directamente relacionados a una cobertura predefinida, siempre
habrá que hacer un trabajo de campo. Esto se puede hacer antes de la clasificación con el fin de
establecer la relación entre cobertura y respuesta espectral, o se puede hacer después de una
clasificación multiespectral con el fin de ajustar dicha clasificación. Es importante tomar en cuenta,
que un mayor número de puntos de muestreo en campo bien distribuidos sobre el área de interés
permite obtener una clasificación más fiel. Asimismo, cuando la fecha del trabajo de campo es más
cercano a la fecha (o época) de toma de la imagen, se puede establecer más fácil una relación real
entre ND y cobertura.

8.1 “Density slicing” (clasificación de una sola banda)


Por medio de la clasificación de una sola banda (“Density Slicing”) se trata de distinguir diferentes
elementos con base en una sola banda (o un mapa derivado de múltiples bandas). Como hemos visto
en los ejercicios anteriores (3.6 Pixeles y números digitales, 7.2 Índice de vegetación de diferencia
normalizado y 7.3 Aritméticas de imágenes) existen traslapos entre rangos de valores al comparar
coberturas en una sola banda. Por lo tanto la clasificación de una sola banda no es una herramienta
para generar un mapa de cobertura representativa, pero una herramienta para ayudar a separar
coberturas que no se podían separar por medio de una clasificación multiespectral.

En el siguiente ejercicio tratamos de separar diferentes coberturas utilizando el mapa “ratio” (banda
3 / banda 1):

 Entre a la opción “New Domain”, especifique el nombre “ratiocl” como nombre para el
dominio, marque la opción “Group” para crear un dominio de clases agrupadas y oprima
el botón “OK”. Oprima la tecla “Insertar” para insertar una nueva clase. En la caja del
dialogo “Add domain item” especifique el valor 0.4 como “Upper Bound” (limite superior
de la clase), “Cuerpos de agua” como “Name” y oprima el botón “OK”. Repita este proceso
para las siguientes clases:

©
X. Bakker - 2001 46 Clasificación de las imágenes
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

Upper Bound Name


0.6 Construcciones
1 Mezcla: Constr./Suelos/Páramo/Nubes/Sombras
1.5 Bosques
1.8 Mezcla: Bosque/Cultivos
4 Cultivos

Cierre el dominio cuando todas las clases estén definidas.

Ahora se tiene que aplicar el proceso de clasificación de una sola banda:

 Entre a la opción “Slicing”, especifique el mapa “ratio” como mapa de entrada, “ratiocl”
como mapa de salida, seleccione el dominio “ratiocl”, prenda la opción “Show” y oprima
el botón “OK”.

Para mejorar el despliegue es necesario asignar unos colores más representativos:

 En la ventana del mapa “ratiocl” entre el menu “Edit”, seleccione la opción


“Representation” y luego “1 map ratiocl”. Asigne los siguientes colores predefinidos:

Name Color
Cuerpos de agua “Blue”
Construcciones “Red”
Mezcla: Constr./Suelos/Paramo/Nubes/Sombras “SandyBrown”
Bosques “ForestGreen”
Mezcla: Bosque/Cultivos “Green”
Cultivos “Yellow”

Usted cree que este método es fiable para generar un mapa de cobertura vegetal?

©
X. Bakker - 2001 47 Clasificación de las imágenes
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

8.2 Clasificación multi-espectral


La clasificación multiespectral de las imágenes es un proceso donde se relaciona un significado a la
respuesta espectral que contienen varias bandas. Normalmente, el ND de un pixel es el resultado de
la combinación de respuestas espectrales de las coberturas que se registran dentro de un pixel. Por
lo tanto el uso de imágenes con mayor resolución espacial incrementa la confiabilidad de la
interpretación. Asimismo, el tener más respuestas espectrales ayuda a separar las diferentes clases de
coberturas.

Existen dos tipos de clasificación: la clasificación no-supervisada (“cluster”) y la clasificación


supervisada

8.2.1 Clasificación no-supervisada


La clasificación no-supervisada tiene como objetivo la definición de las clases espectrales presentes
en la imagen. No implica ningún conocimiento del área de estudio, por lo que nuestra intervención
se centra más en la interpretación, que en la consecución de los resultados.

Se asume que los ND de la imagen forman una serie de agrupaciones o conglomerados (clusters),
más o menos nítidos según el caso. Estos grupos equivaldrían a pixeles con comportamiento espectral
homogéneo y, por lo tanto, deberían definir clases temáticas de interés. Desafortunadamente las clases
resultado de este proceso, no siempre representan las clases que el temático pretende separar. Sin
embrago, esta herramienta constituye un gran apoyo para evaluar la separabilidad entre clases.

En el siguiente ejercicio efectuaremos una clasificación no-supervisada:

 Entre a la opción “Cluster”, especifique los tres bandas originales como bandas de
entrada, deje el número de cluster en 10, especifique “clust10" como mapa de salida,
prenda la opción “Show” y oprima el botón “OK”.

Edite la representación de este mapa y compare el resultado con el mapa “ratiocl”. Se puede observar
que los cuerpos de agua están separados en los cluster 1 (Embalse de Tominé), cluster 3 (Laguna de
Suesca) y cluster 7 (Embalse de Neusa). Las clases generadas no representan las clases que queremos
distinguir. Se puede incrementar el número de cluster en este proceso, pero es mejor efectuar la
clasificación supervisada.

8.2.2 Clasificación supervisada


La clasificación supervisada parte de un cierto conocimiento de la zona de estudio, adquirido por
experiencia previa o por trabajos de campo. Esta mayor familiaridad permite al intérprete delimitar
sobre la imagen unas áreas que se consideran suficientemente representativas de las diferentes
coberturas que componen la leyenda. Estas áreas se denominan “campos de entrenamiento”. El
término indica que tales áreas sirven para “entrenar” al computador en el reconocimiento de las
distintas coberturas.

©
X. Bakker - 2001 48 Clasificación de las imágenes
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

En otras palabras, a partir de ellas el computador calcula los ND que definen cada una de las clases,
para luego extrapolar esta información al resto de los pixeles que conforman la imagen. Es importante
seleccionar varios campos por cobertura con el fin de reflejar adecuadamente su variabilidad en la
zona de estudio [2].

8.2.2.1 Fase de entrenamiento


Como se explicó anteriormente la fase de entrenamiento es la parte más crítica de la clasificación. En
caso de asignar un significativo erróneo a unos pixeles, se generarán traslapos de clases y causará un
resultado poco confiable.

En este ejercicio empezaremos la clasificación supervisada:

 Entre a la opción “New SmplSet”, especifique el nombre “cobert” como “Sample Set
Name”, como listado de mapas cree uno nuevo con el nombre “x321geo" ya que el listado
“x321" fue creado cuando las bandas todavía no tenían una georeferenciación. Oprima
el botón para crear el dominio que utilizaremos para clasificar las coberturas. Asigne el
nombre “cobert” al dominio y adicione las siguientes clases:

Bosque (50,130,75)
Páramo (150,200,160)
Suelos desnudos (190,140,110)
Cuerpos de agua (tipo 1) (65,105,225)
Cuerpos de agua (tipo 2) (115,160,255)
Cuerpos de agua (tipo 3) (25,205,225)
Centro urbano (180,0,0)
Periferia urbana (255,0,0)
Pasto (255,255,0)
Zonas Cultivadas (vegetación densa) (0,255,0)
Zonas Cultivadas (vegetación escasa) (245,165,95)
Viveros (235,250,145)
Nubes (170,170,170)
Sombras de las nubes (0,0,0)

Cierre la ventana del dominio al finalizar y oprima el botón “OK” en la ventana de “Create
a new Sample Set”.

El mensaje “Please zoom in to edit” aparece varias veces en la pantalla, indicando que el usuario
tiene que hacer acercamientos para seleccionar pixeles de entrenamiento. A partir del listado “x321"
se genera el despliegue (una composición a falso color), asegúrese que se está utilizando la banda 3
para Rojo, la banda 2 para Verde y la banda 1 para Azul. Además de la composición aparecerá la
ventana de las estadísticas de entrenamiento.

Antes de proceder edite la representación según los colores indicados anteriormente.

©
X. Bakker - 2001 49 Clasificación de las imágenes
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

 Haga un acercamiento al Embalse de Neusa, y seleccione (creando un rectángulo) varios


pixeles (500-750) en la mitad del embalse. Luego oprima el botón derecho del mouse y
seleccione del menú sensitivo al contexto la opción “Edit”. En la ventana “Edit” seleccione
la clase “Cuerpos de agua (tipo 1)” y oprima el botón “OK”.

Luego desplace la ventana hacia la Laguna de Suesca y asigne a grupos de pixeles


representativos la clase “Cuerpos de agua (tipo 2)”. Asigne a pixeles del Embalse de
Tominé la clase “Cuerpos de agua (tipo 3)”.

Con el fin de evaluar la separabilidad de las clases a las cuales hemos asignado grupos de pixeles de
entrenamiento, se puede desplegar unos gráficos llamados “Feature Spaces”.

8.2.2.2 Despliegue de “Feature Spaces”


Un Feature Space muestra la respuesta espectral de los pixeles asignados a las clases usando
diferentes colores, usando para los ejes dos bandas que el usuario elige. Cuando haya traslapo entre
las clases (mezcla de colores), entonces habrá problemas en separar estas clases.

 Seleccione del menú “Edit” la opción “Feature Space”.


Puesto que las bandas 1 y 2 son muy similares solamente
creamos feature spaces de las bandas 1 y 3 y de las
bandas 2 y 3: Seleccione “x1" como “Band 1" y como
“Band 2" seleccione “x3" y oprima el botón “OK”. Repita el
proceso para el feature space para “x2" y “x3".

Observe que las tres clases de agua son bien separables


específicamente en la banda 2.

Otra manera de evaluar la separabilidad de las clases es por medio de las estadísticas de muestreo.

8.2.2.3 Evaluación de estadísticas

ILWIS calcula para cada grupo de entrenamiento, como


para cada clase las siguientes estadísticas, que ayudan a
evaluar la selección de pixeles o la clase de interés:

“Mean” La media
“StDev” Desviación típica
“Nr” Número de pixeles con el valor predominante
“Pred” El valor predominante
“Total” Total de pixeles seleccionados ó en la clase

©
X. Bakker - 2001 50 Clasificación de las imágenes
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

Mientras la desviación típica sea pequeña, los ND que componen la clase tiene poca diferencia. Esto
mejora la separabilidad (menos posibilidad de traslapos), pero existen elementos con un alto grado
de diferencia en los NDmin y NDmax para las diferentes bandas.

 Continúe seleccionando pixeles de entrenamiento para todas las clases. Los campos de
entrenamiento deben estar bien distribuidos sobre la imagen.

Se puede ver que existen varias clases que tienen un comportamiento similar en las bandas. Las
construcciones, tanto de los centros como de la periferia urbana tienen una respuesta espectral muy
similar. Los centros urbanos normalmente por ser construidos mas densos tienen una respuesta un
poco mas baja. La periferia urbana por estar combinada con suelos desnudos (en construcción) y
parques genera una respuesta mezclada. Los viveros, por tener la respuesta de construcciones
mezclada con vegetación, aparecen con una respuesta un poco más alta en la banda 3.

8.2.2.4 Clasificación del muestreo


Una vez terminada la selección y estudio de las categorías que intervendrán en la clasificación, se
inicia la fase de asignación. En esta fase se trata de asignar a cada pixel de la imagen una categoría.
Esta asignación se realiza, naturalmente, en función de sus ND, para cada una de las bandas que
intervienen en el proceso. Fruto de esta fase será el mapa temático de cobertura.

ILWIS soporta varios algoritmos para la asignación de las clases.

8.2.2.4.1 “Box classifier”


Alrededor del medio de las clases se dibuja una caja (box) con el tamaño basado en la desviación
típica. El usuario puede especificar un factor de multiplicación para agrandar las cajas. Cuando el ND
de un pixel está dentro de una caja, se asigna esta clase al pixel. En caso que el ND está en dos o más
cajas, se asigna la clase correspondiente a la caja más pequeña. Cuando el ND de un pixel no queda
dentro de ninguna caja, el pixel quedará sin clasificar.

El factor multiplicador por defecto es raíz de 3.

©
X. Bakker - 2001 51 Clasificación de las imágenes
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

8.2.2.4.2 “Minimum Distance classifier”


Con el fin de clasificar los valores espectrales de un pixel, la distancia hacia el medio de cada clase
es calculada. En caso que la distancia a la clase más cercana sea menor que un valor especificado por
el usuario, la clase es asignada al pixel. En caso contrario el pixel quedará sin clasificar.

Por lo tanto este tipo de clasificación no solo considera la respuesta espectral sino también su
ubicación en el mapa.

8.2.2.4.3 “Minimum Mahalanobis Distance classifier”


Para este tipo de clasificación la distancia hacia el medio de cada clase es calculada como distancia
Mahalanobis. Esta distancia depende de la distancia hacia el medio de la clase y la matriz
varianza-covarianza de cada clase. En caso que la distancia Mahalanobis a la clase más cercana sea
menor que un valor especificado por el usuario, la clase es asignada al pixel. En caso contrario el pixel
quedará sin clasificar.

8.2.2.4.4 “Maximum Likelihood classifier”


El método de máxima probabilidad considera que los ND en el seno de cada clase se ajustan a una
distribución normal. Esto permite describir la categoría por una función de probabilidad, a partir de
su vector de medias y matriz de varianza-covarianza. En pocos palabras, esa función asemeja la
distribución real de los ND en esa categoría, por lo que nos sirve para calcular la probabilidad de que
un pixel (con un determinado ND) sea miembro de ella. El cálculo se realiza para todas las categorías
que intervienen en la clasificación, asignando el pixel a aquella que maximice la función de
probabilidad.

8.2.2.4.5 Efectuar la clasificación


En este ejercicio clasificaremos la imagen usando diferentes métodos, con el fin de determinar el que
más se ajuste a la realidad.

 Entre al programa “Classify”. Seleccione “cobert” como “Sample Set”. Por defecto está
seleccionada la opción “Box classifier”. Acepte esta opción y también el valor 1.732051
como factor de multiplicador. Cambie el nombre de salida a “clbox17" y oprima el botón
“OK”.

Repita este proceso para generar los siguientes mapas:


Mapa Método Factor multiplicador Treshold distance
clbox25 Box classifier 2.5 -
cldis100 Minimum Distance - 100
clmah100 Min. Mahalanobis Distance - 100
cllik100 Maximum Likelihood - 100

©
X. Bakker - 2001 52 Clasificación de las imágenes
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

8.2.2.5 Evaluar los resultados de la clasificación


Despliegue los mapas “clbox17", “clbox25", “cldis100" y la composición a falso color “xcomp321"
y compare los resultados.

ILWIS cuenta con una herramienta para la consulta de múltiples mapas: “Pixel Information”.

 En la ventana del mapa “xcomp321" seleccione el menú “File” y luego la opción “Open
Pixel Information”. Una ventana aparece donde se puede adicionar múltiples mapas con
el fin de consultarlos. En el menú “File” de esta ventana seleccione la opción “Add Map”,
y luego seleccione el mapa “clbox17" y oprima el botón “OK”. Adicione también los mapas
“clbox25" y “cldis100". Observe como los valores cambian mientras se desplaza el mouse
sobre el mapa “xcomp321".

Cual método se ajuste más a la realidad?

8.2.2.6 Operaciones posteriores a la clasificación


Usted ya ha podido ver que existen traslapos espectrales entre las clases de “Centro urbano”,
“Periferia urbana” y “Suelos desnudos”. Por lo tanto hemos obtenido unos grandes núcleos urbanos
en la parte superior central de la imagen (área que corresponde a suelos desnudos). Con el fin de
corregir esto, uniremos las tres clases anteriormente mencionadas y las asignamos a “Suelos
desnudos”. Luego incorporaremos los cascos urbanos que tenemos en el mapa de polígonos “xcab2".

Puesto que los nombres de estas clases son relativamente largos, hacemos unos adiciones en el
dominio “cobert”:

 Haga doble clic sobre el icono del dominio “cobert”. Luego haga doble clic sobre el
elemento “Centro urbano” y escriba en el campo “Code” el código “CU”. Repita esto para
“Periferia urbana” asignando el código “PU” y para “Suelos desnudos” el código “SD” y
cierre el dominio.

 Escriba en la línea de comando la siguiente fórmula y oprima <Enter>:

Tmpcob =IFF((cldis100=”CU”) or (cldis100=”PU”),”SD”,cldis100)

Asigne el dominio “cobert” al mapa de salida y despliegue el resultado.

Esta superposición condicional escribe en el mapa de salida “tmpcob” la unidad “Suelos desnudos”
(“SD”) cuando encuentra en el mapa “cldis100" las clases “CU” o “PU” (las zonas urbanas) o en
caso de no encontrar estas clases se reproduce el mapa “cldis100".

Despliegue sobre el mapa “tmpcob” el mapa de polígonos “xcab2". Note que de esta manera las
zonas urbanas no se están incorporando en el mapa “tmpcob”. Esto se harán en el capítulo 8.

©
X. Bakker - 2001 53 Clasificación de las imágenes
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

8.2.2.7 Filtros de predominancia


Los filtros de predominancia pueden ser usados para corregir pequeñas áreas (pixeles aislados con
una clase distinto de los de su vecindad directa). En este ejercicio aplicamos un filtro de
predominancia al mapa “tmpcob” para corregir estos errores.

 Entre al programa “Filter” y seleccione el mapa “tmpcob” como mapa de entrada.


Seleccione el tipo de filtro “Majority” y el nombre del filtro “Majority”. Luego escriba como
nombre del mapa de salida “tmpcob2", prenda la opción “Show” y oprima el botón “OK”.
Note que por defecto está seleccionado el dominio “cobert”.

Compare el resultado con el mapa de entrada.

En caso que usted ha notado que algunos pixeles se han quedado sin asignación de una clase, se
puede aplicar el filtro “Majundef”. Esto preferiblemente se hace antes de aplicar el filtro “Majority”
puesto que puede asignar a más pixeles el valor indefinido.

OJO Existe la posibilidad que muchos pixeles queden sin clasificar. En tal caso se debe o incluir
más pixeles en la fase de entrenamiento se debe aumentar el valor del factor multiplicador
ó el “Treshold distance” según es el caso.

©
X. Bakker - 2001 54 Clasificación de las imágenes
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

9. CORRECCIÓN GEOMÉTRICA DE LOS RESULTADOS


La corrección geométrica traslada los ND de una imagen georeferenciada a una nueva matriz con el
norte orientada hacia arriba. Puesto que en este proceso el valor del ND puede cambiar (el valor del
ND que resulta es el producto de la combinación de varios ND de la imagen original), se recomienda
aplicar este proceso a los resultados de la interpretación. En algunos casos es inevitable aplicar este
proceso antes de una interpretación. Por ejemplo, cuando se aplica un proceso de sinergismo y los
resultados son utilizados para la interpretación. En tal caso se debe utilizar el procedimiento que
menos afecta el ND original.

9.1 Diferentes funciones de transformación


ILWIS cuenta con tres funciones de transformación; vecino más cercano, interpolación bilineal y
convolución cúbica.

9.1.1 Vecino más cercano (Nearest Neighbour)


El primer método se denomina “vecino más cercano” (nearest neighbour), por situar en cada celda
de la imagen corregida el valor (o clase) del pixel más cercano en la imagen original. Esta es la
solución más rápida y la que supone menor transformación de los valores (o clases ) originales. Su
principal inconveniente radica en la distorsión que introduce en rasgos lineales de la imagen
(fracturas, carreteras o drenajes), que pueden aparecer en la corregida como lineas quebradas [2].

9.1.2 Interpolación bilineal (Bi-Linear)


La interpolación bilineal, supone promediar el ND de los cuatro pixeles más cercanos de la imagen
original. Este promedio se pondera según la distancia del pixel original al corregido: tienen una mayor
influencia aquellos pixeles más cercanos en la imagen inicial. Reduce el efecto de distorsión en rasgos
lineales, pero tiende a difuminar un tanto los contrastes espaciales de la imagen original [2].

9.1.3 Convolución cúbica (Cubic Convolution)


Por último, la convolución cúbica considera los valores del pixel (o clases) de los 16 pixeles más
próximos. El efecto visual es más correcto, pero supone un volumen de cálculo mucho más elevado.

9.2 Crear una georeferenciación de esquinas.


Independiente de la transformación que se va a emplear, se requiere tener una georeferenciación de
esquinas. Para determinar las variables se debe desplegar la composición a falso color y determinar
las coordenadas de las 4 esquinas. De esta forma se puede obtener el rango X y Y. Anote abajo las
coordenadas:

Mínimo Máximo

X
Y

©
X. Bakker - 2001 55 Corrección geométrica
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

Ahora creemos la nueva georeferenciación:

 Entre a la opción “New GeoRef”. Escriba “Sabana” como nombre de la georeferenciación,


escriba los coordenadas de la tabla anterior, cambie el tamaño del pixel a 20 y oprima el
botón “OK”.

9.3 Re-muestreo hacia una georeferenciación de esquinas


El proceso de remuestreo corregirá geométricamente el mapa que tenemos:

 Seleccione el mapa “tmpcob2", oprima el botón derecho del mouse y seleccione la opción
“Image Processing” y luego “Resample”. Note que la única transformación que el
programa permite con este mapa es la del vecino más cercano. Esto es por que el mapa
de entrada tiene un dominio tipo clase y por lo tanto no puede hacer promedios
ponderados. Escriba el nombre “cobgeo1" como nombre de salida, seleccione la
georeferenciación “Sabana”, prenda la opción “Show” y oprima el botón “OK”.

En el despliegue del mapa se puede observar que el mapa se rotó con las manecillas del reloj.
Adicione la grilla para verificar que ahora el norte está orientado verticalmente hacia arriba. Ya el
mapa está en condiciones para incorporar las zonas urbanas.

9.4 Incorporar las zonas urbanas en el mapa de cobertura


Puesto que el mapa de las zonas urbanas está en formato vectorial, tendremos que rasterizarlo para
poder combinarlo. Una de las condiciones para la superposición es que todos los mapas que
intervienen estén en formato raster y comparten la misma georeferenciación de esquinas. Por lo tanto
rasterizaremos el mapa con la georeferenciación “Sabana”.

 Seleccione el mapa de polígonos “xcab2", oprima el botón derecho del mouse y


seleccione la opción “Polygon to Raster”. Cambie el nombre del mapa de salida a
“zonasurb”, seleccione la georeferenciación “Sabana”, prenda la opción “Show” y oprima
el botón “OK”.

Por medio de una superposición condicional incorporaremos las zonas urbanas:

 Escriba en la línea de comando la siguiente fórmula y oprima <Enter>:

Cobgeo2 = IFF(isundef(zonasurb),cobgeo1,”CU”)

Asigne el dominio “cobert” al mapa de salida y despliegue el resultado.

Se puede notar que un pueblo fue incorporado al mapa, pero sale de las dimensiones de la
clasificación. Esto se puede corregir, recodificando el mapa raster zonasurb (“Unique ID”) , luego
determinar cual es su código y por medio de una superposición condicional asignarle el valor “?”.

©
X. Bakker - 2001 56 Corrección geométrica
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

El resultado debe ser similar al gráfico desplegado abajo:

A partir de este mapa se puede calcular el histograma (de la misma manera que con las bandas) y
presentar los resultados en un reporte.

Conclusiones
Como conclusión general se puede establecer que en este curso únicamente se trataron las etapas
básicas de procesamiento digital de imágenes. La teledetección incluye una gran gama de aplicaciones
con sus propios procedimientos. Se recomienda leer el libro de Emilio Chuvieco “Fundamentos de
teledetección espacial” para profundizar los conceptos de procesamiento digital de imágenes.

Las operaciones usados en este curso de ILWIS son solamente una pequeña parte de la totalidad de
las que ILWIS ofrece. Antes de seguir con el curso avanzado de procesamiento digital de imágenes
con ILWIS se recomienda hacer el curso de análisis y modelamiento.

©
X. Bakker - 2001 57 Corrección geométrica
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

10. PROCESAR UNA VENTANA DE UNA IMAGEN LANDSAT


Con el fin de evaluar los conocimientos previamente adquiridos se hará un ejercicio usando una
ventana (Cochabamba) de una imagen Landsat TM. El objetivo es clasificar la ventana, haciendo uso
de sus bandas espectrales, en las siguientes clases de cobertura:

& Zonas urbanas


& Bosques
& Suelos desnudos
& Cuerpos de agua
& Cultivos
& Pastos
& Rastrojo

El mapa de polígonos “landuse” contiene los usos de la tierra en la misma área. Este mapa puede ser
usado como guía para la clasificación en la fase de entrenamiento. Ojo: el mapa vectorial puede
contener información desactualizada y contener más clases!

Puesto que las imágenes ya están georeferenciadas no es necesario pasar por todas las fases del
procesamiento digital de las imágenes. A continuación encontrará el listado de operaciones que se
deben efectuar:

Composición a color: Se debe seleccionar la composición a color que más se ajuste al


objetivo.
Operaciones multi-banda: Índice de vegetación
Clasificación de imágenes: Clasificación no-supervisada y clasificación supervisada (incluyendo
en caso necesario los filtros de predominancia)
Corrección geométrica: Re-muestreo hacia un georeferenciación de esquinas

Es importante entender la diferencia entre las imágenes SPOT y Landsat TM. En caso que se cree
el índice de vegetación, se deben sustituir las bandas de SPOT por las bandas de Landsat TM según
la parte del espectro electromagnético a que corresponden.

©
X. Bakker - 2001 58 Procesar ventana Landsat TM
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

11. RESPUESTAS

3.1 Despliegue de imágenes de satélite (página 15):


La banda 1 que se encuentra en el mapa raster llamado x2 es similar a la banda 2 contenida en
el mapa raster llamado x3 por la siguiente razón:

Las bandas 1 y 2 fueron adquiridas en la parte visible del espectro electromagnético.

La imagen pancromática no se parece a la banda 3 de la imagen multiespectral, pero sí a las bandas


1 y , por lo tanto se puede concluir que la imagen pancromática fue tomado en la parte visible del
espectro electromagnético.

3.5 Generar un sub mapa de la información útil (página 18):

Información Información
multiespectral pancromática
Primera Fila 2 2

Primera Columna 33 33

Número de Filas* 3008 - 2 + 1 = 3007 6017 - 2 + 1 = 6016

Número de Columnas* 3410 - 33 + 1 = 3378 6788 - 33 + 1 = 6756

* Note que para determinar el número de filas y columnas con información útil, se debe usar
el número de la fila o columna donde termina la información útil, restar la primera fila o
columna y luego sumar 1.

3.6 Pixeles y números digitales (página 19)

Cobertura Banda 1 - XS Banda 2 - XS Banda 3 - XS


Bosque 60 - 70 35 - 45 70 - 110

Páramo 75 - 80 50 - 60 60 - 85
Cuerpo de agua 50 - 55 y 125 - 130 25 - 30 y 110 - 120 33 - 50

Construcciones 100 - 155 100 - 130 70 - 110

Zonas Cultivadas 80 - 115 50 - 80 150 - 200

©
X. Bakker - 2001 59 Respuestas
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

4.1.1 Cálculo del histograma (página 21):

BANDA 1 Porcentaje Valor mínimo Valor máximo

2% 60 144

5% 64 123

10% 68 108

BANDA 2 Porcentaje Valor mínimo Valor máximo

2% 36 126

5% 40 106

10% 43 86

BANDA 3 Porcentaje Valor mínimo Valor máximo

2% 41 206

5% 71 192

10% 82 179

4.1.3 Comparación de la imagen original con la imagen mejorada (página 23):


Para cual banda es menos notorio el efecto del mejoramiento: la banda 3

Explique por que:

Si comparamos los valores ND mínimo y máximo correspondiente al 2% del


histograma, se puede concluir que la banda 1 está usando (144-60+1) 85 números
digitales, la banda 2 está usando (126-36+1) 91 números digitales y la banda 3 (206-
41+1) 166. Al redistribuir estos números digitales sobre los 256 niveles de
visualización disponibles, para la banda 3 se utilizará un factor de expansión de
256/166 = 1.54 el que es menor que el factor para la banda 1 (256/85 = 3.01) y el
factor para la banda 2 (256/91 = 2.81).

©
X. Bakker - 2001 60 Respuestas
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

4.1.4 Ecualización del histograma


Explique por que el valor del porcentaje para excluir del histograma es 0% para la ecualización del
histograma y el 1% para la expansión lineal:

La expansión lineal debe excluir un porcentaje mayor al 0% para tener efecto.


Cuando una imagen tiene nubes, estas nubes tienen ND cerca al 255 y las sombras
tienen ND cerca al 0. En caso de no excluir algún porcentaje se distribuirá los 256
ND sobre 256 NV, lo cual corresponde al despliegue original sin aplicar la expansión
lineal.
Para la ecualización del histograma la exclusión del 1 porciento del histograma (entre
0-1% y entre 99-100%) corresponde teóricamente al 2% de los NV. Puesto que
tenemos 256 NV, 2% corresponde a 5 NV, lo cual no es notable.

4.2.3 Explicación adicional sobre el funcionamiento de filtros


Aplique el filtro “edgesenh” al siguiente mapa y especifique los valores para el mapa de salida:

2 2 8 4 4

2 2 8 4 4 -1 -1 -1 -1 12 3

6 6 7 3 3 -1 16 -1 7 9 1

4 4 5 6 6 -1 -1 -1 3 5 7

4 4 5 6 6
Mapa de Entrada Filtro Mapa de Salida
Gain: 0.125 y Offset: 0

Se puede notar que tanto el valor mínimo (2) y el valor máximo (8) del mapa de entrada se
ven exagerados (respectivamente -1 y 12).

Que hace el siguiente filtro:

2 8 4 0 0 0 2 8 4

6 7 3 0 2 0 6 7 3

4 5 6 0 0 0 4 5 6
Mapa de Entrada Filtro Mapa de Salida
Gain: 0.5 y Offset: 0

©
X. Bakker - 2001 61 Respuestas
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

El filtro reproduce exactamente el mapa de entrada, puesto que únicamente toma en cuenta
el pixel central de los 9 pixeles y lo multiplique con 2 (valor del filtro) y luego lo multiplica
con 0.5 (valor del “Gain”) resultando en el valor de entrada.

5.1.1.1 Composiciones a falso color, creando un mapa físico (página 32):

Cobertura Color

Bosque vino tinto - rojo oscuro

Páramo verde - gris

Suelos desnudos verde claro

Cuerpos de agua negro / azul oscuro / verde azul

Construcciones cyan - gris - verde

Zonas Cultivadas rojo intenso

Nubes* blanco

Sombras de los nubes* negro

* Note que ni las nubes ni las sombras de los nubes son coberturas.

6.3.3 Puntos de control a partir de mapas digitales (página 39):


Seleccione al menos 15 puntos de control y compare tanto la precisión (sigma) como el tiempo
invertido en la georeferenciación a partir del mapa análogo con la hecha desde el mapa digital. Cual
es la conclusión:

La georeferenciación utilizando puntos de control seleccionados en el mapa digital


permite ubicar los puntos con mayor precisión. El mapa digital está basado en
información a escala 1:25.000 y el mapa análogo fue impreso a escala 1:100.000. En
un mapa análogo se puede determinar un punto con aproximadamente 0.5 mm de
precisión lo cual corresponde a 50 metros (son 2.5 pixeles de 20 metros, entonces
se justifica un sigma de 2.5). En el mapa digital se pueden hacer los acercamientos
necesarios para ubicar los puntos con precisión. Además, no se requiere calcar y
digitar las coordenadas. Como referencia se puede adicionar el mapa digital en el
despliegue y determinar en que partes de la imagen se requiere mas puntos de
control para obtener mayor precisión.

©
X. Bakker - 2001 62 Respuestas
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

7.2 Índice de vegetación de diferencia normalizado (página 43):


Determine el rango de valores con el índice de vegetación para las siguientes coberturas:

Cobertura Rango IVDN

Bosque 0.35 a 0.50

Páramo 0.00 a 0.15

Suelos desnudos -0.20 a 0.00

Cuerpos de agua -0.55 a -0.15

Construcciones -0.25 a -0.05

Zonas Cultivadas (fin del ciclo) 0.50 a 0.75

Zonas Cultivadas (comienzo del ciclo) 0.00 a 0.50

Nubes* -0.10 a 0.00

Sombras de los nubes* 0.00 a 0.25

7.3 Aritméticas de imágenes (página 45):


Despliegue el resultado y determine los rangos de valores para las siguientes coberturas:

Cobertura Rango en mapa Ratio

Bosque 1.00 a 1.80

Páramo 0.90 a 1.05

Suelos desnudos 0.70 a 1.00

Cuerpos de agua 0.25 a 0.40

Construcciones 0.50 a 0.75

Zonas Cultivadas 1.50 a 3.00

Nubes* 0.60 a 1.00

Sombras de los nubes* 0.60 a 1.00

* Note que ni las nubes ni las sombras de las nubes son coberturas.

Determine con que rango de valores se pueden distinguir los cuerpos de agua de las demás
coberturas: utilizando un rango de 0 o 0.25 hasta 0.4.

©
X. Bakker - 2001 63 Respuestas
PRÁCTICA DE PROCESAMIENTO DIGITAL DE IMÁGENES

BIBLIOGRAFÍA

[1] Bijker, W. 1997. Radar for rain forest. A monitoring system for land cover change in the
Colombian Amazon. ITC publication 53, Enschede. 192 pp.
[2] Chuvieco, E. 1995. Fundamentos de teledetección espacial. Ediciones Rialp S.A. Madrid.
453 pp.
[3] FAO, 1993. Radar imagery: theory and interpretation. Lecture notes. FAO, Rome. 103 pp.
[4] Gonima G., L. 1995. Fundamentos físicos de la percepción remota. IGAC. Santafé de
Bogotá. 20 pp.
[5] ILWIS. 1997. ILWIS User’s Guide. ITC. Enschede 511 pp.
[6] Microsoft. 1999. Enciclopedia Encarta 99. CD-ROM
[7] Montoya P., J. A. 1995. Clasificación de los sensores remotos y plataformas utilizadas en
percepción remota. IGAC, Santafé de Bogotá. 158 pp.
[8] Richards, J. A. 1986. Remote sensing digital image analysis, an introduction. Springer-
Verlag, Berlin. 281 pp.

©
X. Bakker - 2001 64 Bibliografía

You might also like