Earth">
Resumen Final Teledetección y SIG-53-98
Resumen Final Teledetección y SIG-53-98
Resumen Final Teledetección y SIG-53-98
Transformación y registro:
Recordamos: un sensor es un dispositivo que detecta radiación electromagnética emitida o
reflejada y la convierte en un valor físico que puede ser grabado y procesado. El sensor,
mediante sus detectores actúa como un convertidor analógico digital, generando una
corriente eléctrica cuya intensidad es directamente proporcional a la radiancia de cada
una de las cubiertas.
La radiancia que refleja el sensor es la energía reflejada o emitida por una superficie, que el
sensor transforma en un valor numérico, el cual se almacena en un medio magnético. Esta
calibración se realiza ordenadamente gracias a la calibración precisa del sensor.
El territorio se divide en parcelas cuadradas que corresponden al área observada por el
sensor y la unidad mínima de información es el valor se registra en una celda que se llama
pixel, formado a partir de la intersección de las filas y las columnas. El valor del pixel, es un
valor de radiancia que resulta de un promedio correspondiente a las distintas cubiertas que
se encuentran debajo del campo de visión instantánea del sensor→ Nivel digital; valor
numérico que puede transformarse en valor de intensidad visual. Cada número que es parte
de la matriz numérica que constituye la imagen, corresponde a la radiancia recibida por el
sensor para una porción concreta del terreno y en una banda espectral determinada. Al
visualizar la imagen, ese valor numérico se expresa como un valor de gris para cada celda
53
El valor de reflectividad (proporcional a la
intensidad detectada por el sensor), se almacena en el píxel, lo que da lugar a una matriz:
➔ La matriz es discreta y finita: espacialmente tiene un número finito de celdas de un
tamaño determinado
➔ En cuanto a la luminancia, los valores van a ser en forma entera entre un mínimo y
un máximo que va a depender de la resolución radiométrica del sensor. El píxel va a
contener un nivel de gris que vamos a llamar nivel digital.
➔ Representa la radiancia medida en un sector del espectro. Los sensores tienen la
capacidad de medir varios sectores del espectro→ cada una de las matrices es
una región del espectro que son las bandas. Estas bandas en conjunto serán la
imagen satelital.
➔ Cada número que es parte de la matriz numérica que constituye la imagen,
corresponde a la radiancia recibida por el sensor para una porción concreta del
terreno y en una banda espectral determinada. Al visualizar la imagen, ese valor
numérico se expresa como un valor de gris para cada celda→ según el sector del
espectro con el que se trabaja.
Entonces, los datos de la imagen pueden ser esquematizados en una matriz de tres
dimensiones: posición geográfica y la tercera dimensión es espectral
🎬
El proceso:
🎬
La escena
🎬
Los sectores del espectro que capta el sensor→ banda
🎬
Imagen multiespectral: es una imagen formada por pocas bandas (3-20 bandas)
La imagen hiperespectral es la que tiene mayor cantidad de bandas y se considera
más de 20 bandas de forma contigua.
Cada una de las celdas que conforman la matriz (pixel), componen los datos raster. Los
datos raster se componen de filas y columnas de celdas, cada celda almacena un valor
único. Pueden ser imágenes (imágenes raster), con un valor de color en cada celda (o
pixel).
Cuando trabajamos con imágenes hay formas de almacenamiento de los datos raster,
los cuales se almacenan como una secuencia de bytes, es importante saber esto para
poder reconstruir la información detectada por el sensor. Cada una de las matrices de la
imagen se podrán abrir de diferentes formas:
➢ Bandas secuenciales: es el formato más simple, óptimo para
el acceso espacial a cualquier parte de una sola banda
espectral. Si tengo que localizar algo, la idea sería trabajar
con este formato→ se graban de forma que los niveles
54
digitales de cada banda se disponen físicamente uno a continuación del otro
hasta completar la banda (primero la 1, después la 2 etc). *Los ND de cada banda
se disponen uno a continuación del otro hasta completar todos los píxeles que la
forman*
55
No presentan información espacial: tienen un eje x, donde se muestra los niveles de grises
y un eje y donde se expresa la frecuencia en que ocurren.
Forma de leer:
1. Bits, en un extremo la ausencia de luz
(negro) y en el otro la presencia total de luz
(blanco). Dividiendo en el medio entre
sombras, medios tonos y altas luces:
Para realizar una caracterización estadística de la imagen debemos saber cuántos pixeles
hay, cual es su media, máximos, mínimos y varianza. Se puede calcular tanto de una
banda, como de todas las bandas que tenga la imagen. Función que representa la
frecuencia de ocurrencia de cada uno de los niveles de gris (ND)
Tipos de histogramas:
⛕ Distribución normal de la frecuencia→ forma de campana. Generalmente está
representando un tipo de cobertura en la mayor parte de la imagen.
⛕ Bimodal: dos distribuciones características.
⛕ Asimetría negativa: donde la cola de la distribución se alarga para valores inferiores
a la media
⛕ Asimetría negativa: la cola de la distribución a la derecha de los valores superiores a
la media.
La base nos va a decir sobre la tonalidad de la base y los máximos nos van a hablar acerca
de tipos de cobertura
56
Ajuste de contraste: se hace aplicando una función de transformación a una
imagen de entrada la cual va a tener una imagen de salida. Tienden a adaptar la resolución
radiométrica de la imagen a la capacidad del monitor de visualización, tratando de disponer
mejor los datos para su análisis visual.
Comprensión del contraste: el rango del sensor supera al número de niveles de gris que
puede visualizarse.
La imagen con mayor número de niveles digitales que niveles de visualización en la
computadora/placa/monitor. Los ajustes se van a tener que hacer en 2 situaciones: monitor
o placa de video con baja potencia o cuando estamos trabajando con sensores que cuentan
con una resolución radiométrica mucho más alta→ sistemas de visualización no lo soportan.
Se puede resolver eliminando una parte de la escala que no se considere relevante
(elimina información arbitrariamente) o estableciendo una función de compresión de
datos. Pueden indicarse intervalos de igual anchura, que contenga el mismo número de
elementos→ se le asigna un único NV, eliminando la variación interna. Se reduce el
contraste, los colores se diferencian menos entre sí.
57
pequeño comparando con el rango total de la imagen, este objeto va a pasar
desapercibido. Se va a tratar de producir un histograma lo más equilibrado posible,
teniendo en cuenta la distribución real de los valores. Se trata de hacer una
expansión proporcional a la frecuencia de aparición de los niveles digitales. Aquellos
ND con mayor número de píxeles, serán los que, proporcionalmente, ocupen un
mayor rango de niveles visuales. Se da un realce equilibrado, mostrando menos
contraste.
Tengo que trabajar una imagen L8 ¿Qué característica tiene el sistema de visualización que
voy a usar? ¿Necesito compresión o expansión del contraste?
58
Tienden a eliminar cualquier anomalía de la imagen, disponiendo los datos a una
adquisición idónea.
Si bien, los sensores remotos son calibrados previo al lanzamiento, algunas variables hacen
que sea necesario volver a calibrar de forma periódica. Ejemplo: Landsat, el paso del tiempo
y el deterioro de los espejos, hace que se tenga que volver a calibrar. Las calibraciones son
realizadas generalmente por la agencia responsable de cada misión, mediante procesos
específicos, en donde se obtienen valores exactos para ajustar los niveles digitales.
● NOAA, comunica periódicamente los valores de estos coeficientes para sus
plataformas a través de la web. Todas las imágenes que se descarguen del GLOBIS
van acompañadas de un archivo de texto con los parámetros de corrección.
Las correcciones que se deben realizar en las imágenes, tienden a eliminar las anomalías
causadas por la señal que llega al satélite luego de que atravesó la atmósfera, el efecto va a
producir errores en la localización y en los ND de los pixeles.Pueden presentar
alteraciones radiométricas y geométricas de forma que no coincida con el tono, posición o
tamaño de los objetos.
Estas correcciones tienden a eliminar las anomalías en su localización, en sus niveles
de radiación, posición del píxel→ no se corrigen efectos de la imagen, sino que se utiliza
para una mejor utilización.
➢ Corrección geométrica: se asigna un sistema de proyección, muchas veces
resulta ser un paso necesario, teniendo en cuenta el tipo de material que se está
trabajando y si necesita esta corrección. Muchos productos que se descargan de la
WEB, por ejemplo desde GLOBIS, tienen hecha la corrección geométrica pero para
el hemisferio norte. Actualmente se considera que las correcciones de este tipo se
hacen después de las radiométricas, ya que modifican el pixel.
➢ Correcciones radiométricas, del valor del pixel: frecuentemente son necesarias
pero van a depender del objeto que se estudia.
Las anomalías pueden ser producidas por:
Distorsiones originadas por la plataforma, distorsiones provocadas por la rotación
terrestre, distorsiones provocadas por el sensor y distorsiones provocadas por las
condiciones ambientales. Hacen que la imagen no coincida exactamente con la
radiancia-posición-forma-tamaño de los objetos. Todas estas van a dar una variación en
la radiancia, posición, forma y tamaño de los objetos, que va a provocar que la imagen no
sea la real.
59
👉 Distorsiones provocadas por la rotación terrestre: el tiempo que tarda el sensor en
tomar la imagen y el movimiento de la tierra va a producir una orientación
suroeste-noreste en la imagen. Al adquirir la escena, el sensor invierte tiempo en
rastrearla, durante ese tiempo la tierra sigue girando y origina un desplazamiento de
las líneas de barrido.
○ Ejemplo: Landsat MSS tiene una imagen de 2250 x 2250), tarda 28 segundos
en levantar una imagen de 185 km x 185 km, en ese tiempo la Tierra ha
rotado alrededor de 8 Km por lo que se ha cambiado la orientación de la
👉
misma
Distorsiones provocadas por el sensor: los sensores de barrido electrónico, realizan
una exploración perpendicular a la trayectoria del satélite mediante la oscilación del
espejo que envía la radiación registrada a una cadena de detectores sólidos. Este
movimiento puede alterarse por anomalías del sensor, provocando un efecto de
barrido no lineal o cambios en el intervalo de toma de la información→ implica una
transformación de la resolución efectiva de la imagen. Otro problema importante es
la falta de calibración entre distintos sensores→ es importante que traduzcan
uniformemente la señal detectada , con el objeto de que la radiancia recibida no se
codifique en niveles digitales diferentes, provocando un efecto de bandeado en la
👉
imagen final.
Distorsiones provocadas por condiciones ambientales: procesos que se producen en
la atmósfera en el trayecto de la radiación. La atmósfera causa una modificación de
la radiancia original que proviene de la superficie de la tierra, el efecto más
importante va a ser la dispersión a consecuencia de la estructura de la atmósfera.
Este efecto produce un aumento de la energía recibida por el sensor y va a ser más
sensible en longitudes de onda corta, porque las mismas tienden a presentar un
menor contraste entre coberturas similares de comportamiento radiométrico.
La dispersión en el visible va a afectar significativamente, produciendo una
reducción en el contraste entre cobertura similares, produciendo una alta
reflectividad en el azul y la absorción va a tener incidencia sobre todo en el espectro
térmico.
Las correcciones son aquellos procesos que tienden a eliminar cualquier anomalía
detectada en la imagen, ya sea su localización o en los niveles digitales de los píxeles
que la componen. Estas operaciones tienden a disponer los datos de la forma más cercana
posible a la adquisición idónea, tanto en la posición como en la radiancia de los píxeles.
Cuando tomamos una imagen inicial, sin procesar, la llamamos cruda. Hay Dos tipos de
correcciones que se pueden hacer:
● Radiométrica: calibración de los datos, corrección atmosférica.
● Corrección geométrica: rectificación, georeferenciación y registración
A partir de las dos correcciones, ya podemos manipular los datos corregidos: realces,
segmentación, álgebra de imágenes, índices, aplicación de algoritmos, componentes
principales, clasificación, para obtener productos finales.
60
Corrección radiométrica
Estas correcciones se realizan con el objetivo de modificar los ND originales para intentar
aproximarlos al valor digital que tendrían bajo condiciones ideales de captación de la
imagen. Los problemas radiométricos más usuales derivan del mal funcionamiento del
sistema sensor, de efectos atmosféricos y de la introducción de ruido en la señal.
Puede ser por,
A. Restauración pixeles o líneas perdidas: se produce por mal funcionamiento del
sensor o de la antena→ píxeles sin datos. Los procesos se dirigen a mejorar
artificialmente el aspecto visual de la imagen para facilitar su interpretación.
B. Corrección del bandeado de la imagen: falta de la información en forma de
banda, se debe a un mal calibrado entre los detectores que forman el sensor→
landsat 7, en el centro de la imagen se podría obtener información. Un bandeado
vertical se produce porque cada columna de la imagen es adquirida por un sensor
diferente.
C. Cálculo de reflectividades: llevar ese nivel digital que tenemos en el sensor y
transformarlos a reflectividades a través de modelos simplificados y de corrección
atmosférica. Conversión de los ND a variables físicas→ a mayor ND, mayor
reflectancia, pero no sirve para comparar bandas entre sí.
1.Corrección/calibración radiométrica:
Paso de los niveles digitales a la radiancia. La señal que recibe el sensor es
codificada en diferentes valores de niveles digitales, de acuerdo a la reflexión de la
radiación electromagnética de las diferentes cubiertas. Este valor de ND está en función de
la reflectancia de los materiales de las cubiertas, la distancia solar, dispersión y absorción
de la atmósfera, la pendiente y el aspecto de la superficie que refleja en relación con el
angulo cenital solar, ángulo de visión del sensor y el ajuste de las ganancias que llegan al
sensor.
La transformación se hace a partir de coeficientes de calibración que están en el
metadato de la imagen de manera inversa para obtener valores de radiancia espectral
(el sensor mide la radiancia pero la presenta en valores de ND). Para muchos satélites y
sobre todo para los Landsat, los detectores están calibrados de manera tal es una relación
lineal entre los niveles digitales y la radiancia espectral, la cual se describe por tres
61
parámetros: el rango de niveles digitales, la radiación mínima y la radiación máxima
(ganancias y pérdidas).
La energía que llega al sensor es la que proviene directamente del sol y la reflectividad de la
cubierta, sin embargo el sensor también recibe energía proveniente de los procesos de
dispersión de la atmósfera. También una parte de esa energía que se dispersó, sigue su
trayecto hasta ponerse en contacto con la superficie, a partir de ahí sigue su trayecto hacia
el sensor. Todos estos procesos que ocurren son los que va a estar detectando el nivel
digital.
Se suma radiancia que llega energía que llega por los procesos atmosféricos, también hay
pérdidas de estas energía, sobretodo de estos objetos o coberturas que están en la
superficie (pérdidas)
El nivel digital va a estar afectado por todos los procesos: en este paso las ganancias
y pérdidas se calibran con coeficientes que están en el metadato de la imagen. Cada
uno de los datos en el metadato representa para cada banda cual es la ganancia y cual es
la pérdida.
62
Transformar la reflectancia calculada al tope de la atmósfera, se la lleva a la superficie→
sacar los efectos de dispersión.
Se hace agregando a la ecuación anterior los efectos de: transmisividad de la atmósfera y
de irradiancia hacia abajo de las dispersiones.
A la radiancia del satélite se le resta la irradiancia directa de la atmósfera (sin dispersión).Se
considera la transmisividad y la irradiancia que no sufre dispersión y llega a la atmósfera.
Para llevar adelante la ecuación y las correcciones hay una cantidad alta de modelos:
➔ Modelo de sustracción de objetos oscuros: postula que la bruma atmosférica
incrementa los niveles digitales en áreas de las imágenes donde hay agua limpia,
calma y profunda, donde por las características físicas deben presentar una
reflectancia nula. El valor representativo de esa diferencia se sustrae en cada banda,
en todos los píxeles de la escena.
➔ Modelo cost: mejora del modelo anterior. Considera los mismos parámetros del
método DOS, pero estima la transmitancia como el coseno del ángulo cenital solar.
¿Qué conceptos anteriores al parcial están directamente relacionados con esta clase?
63
Corrección geométrica→ análisis
Se refiere a cualquier cambio en la posición/coordenadas que ocupan los píxeles en la
imagen original. Se basan en funciones numéricas que permiten modificar la geometría de
la imagen. No se pretende corregir los niveles digitales sino su posición, es decir sus
coordenadas geográficas. Orientan la posición de los pixeles a un sistema de referencias
Elimina las distorsiones geométricas sistemáticas introducidas en la etapa de formación de
las imágenes: cabeceo, alabeo, giro lateral y las provocadas por la trayectoria, altura y
velocidad del satélite. Son esenciales para la formación para generar mosaicos.
● Incluyen la corrección de las distorsiones geométricas que se pueden deber a las
variaciones entre el sensor y la geometría de la tierra.
● Involucra la identificación de las coordenadas de la imagen (Fila, columna) de varios
puntos claramente discernibles, llamados GCP (Ground control point)--> puntos de
control
● Realizar la conversión de la información a las coordenadas del mundo real
Cuando tenemos una imagen cruda como material inicial, muchas veces estas no tienen
sistemas de referencia con la tierra. La ubicación de la imagen, se va a definir por lo que
llamamos una grilla raster. La corrección geométrica que se realiza, utilizando las grillas, va
a ser imprescindible para poder superponer cualquier otro tipo de información auxiliar o para
hacer estudios multitemporales.
1. Rectificación: conversión de las coordenadas del archivo de datos a alguna grilla y
por lo tanto, a un sistemas de coordenadas llamado sistema de referencia, en
general, se refiere a alguna proyección de mapa.
La rectificación por definición involucra la georreferenciación ya que todos los
sistemas de proyección de mapas están asociados con coordenadas de mapas.
La correcta rectificación de una imagen con respecto a un sistema de coordenadas
conocido determina la posibilidad de que los datos satelitales puedan ser
relacionados directamente con los objetos de la superficie terrestre.
64
2. Georeferenciación: proceso de asignar coordenadas de mapa a los datos de la
imagen, solamente cambia la información de coordenadas de mapa en el archivo de
la imagen. La grilla de la imagen no cambia, por lo tanto no constituye una
corrección geométrica por sí sola.
Los puntos de control, son puntos comunes en una imagen que frecuentemente están
ubicados en lugares específicos del terreno: lugares establecidos y fácilmente
identificables (cruce de rutas, punto geodésico, esquinas). Los mismos deben cubrir casi
todo el área, es necesario que su distribución esté hecha uniformemente en toda la imagen
(en zonas de altura, mayor cantidad de puntos para corregir el efecto de desplazamiento
65
con la altura). Para tener una mejor distribución de los puntos se dibuja mentalmente como
5 polígonos (en los extremos y centros) y ubicar los puntos de control en los mismos.
El número de puntos va a depender del tamaño de la imagen y de la complejidad
topográfica del terreno. El tipo de función de transformación va a presentar distintos
requerimientos en cuanto al número de puntos:
➔ Ecuación de ajuste en terreno llano: polinomio de primer grado, que requiere 3
puntos de control.
➔ En un terreno rugoso: se puede usar un polinomio de segundo grado con 6 puntos
de control o de tercer grado con 10.
Matemáticamente quizá son suficientes, sin embargo se recomienda que en un terreno llano
trabajemos con un mínimo de 20 puntos de control, bien distribuidos, en un terreno rugoso,
un mínimo de 30 puntos. Si trabajamos con una subescena, los mínimos se pueden ajustar.
66
C. Convolución cúbica: se diferencia con el anterior, ya que en vez de promediar o
sacar la media ponderada de los 4 píxeles más cercanos, toma los 16 píxeles más
cercanos. Ventaja: produce mucha conservación en el aspecto visual de la imagen
resultante, por introducir menos suavizado que en el método de interpolación
bilineal, puede eliminar el ruido de la imagen. Desventaja: necesita mucho recurso
informático para poder procesar la imagen. También hay que tener en cuenta que los
datos son alterados y que requiere mucho recurso informático→ procesamiento
lento.
67
Procesamiento digital-análisis de imagen: índices y cocientes
Cuando hablamos de tratamiento digital de imágenes, generalmente lo hacemos con la
intención de producir información temática. Sin embargo, la teledetección no debe tener
una visión simplista o reduccionista sino que debe considerarse como una herramienta que
nos permite, además de información temática, obtener variables biofísicas de gran
importancia. Es posible transformar la información que nos da una imagen a partir de la
aplicación de operaciones aritméticas entre bandas espectrales, operando la imagen
con un valor numérico entre bandas o píxeles. Se utilizan con dos fines:
1. Mejorar la discriminacion entre dos cubiertas con comportamiento reflectivo muy
distinto
2. Reducir el efecto del relieve en la caracterización espectral de las cubiertas.
Las variables biofísicas son todas aquellas variables que permiten caracterizar al
ambiente biológico y a las condiciones atmosféricas. Cuando estamos caracterizando a
un ecosistema, la caracterización del ambiente es fundamental y se puede hacer trabajando
con las variables biofísicas.
Se pueden medir de forma directa o indirecta. Las cuales se hacen a través de la aplicación
de modelos:
➢ Empíricos o inductivos: establecen una relación numérica entre el valor del píxel y el
parámetro a estimar a partir de las observaciones locales tomadas en el momento
de adquisición de la imagen
➢ Deductivos o teóricos: tratan de establecer un modelo de validez general
independiente de las condiciones de observación
Las variables que se pueden obtener de forma directa son el cálculo de la reflectividad
aparente y también, a partir de la presencia de un sector térmico en algunos satélites,
podemos realizar el cálculo de la temperatura, lo que nos permite hacer una relación con la
vegetación:
1. Cálculo de la reflectividad aparente: la reflectividad es la relación entre la energía
incidente y la energía reflejada, de ella depende la radiancia que es la energía
reflejada en todas direcciones.
2. Cálculo de temperatura: se trata de calcular la energía emitida por el suelo y recibida
por el sensor (en general, a mayor vigor vegetal, menor es la temperatura). Se mide
en el IRT.
Las variables biofísicas de medición indirecta, se pueden calcular si tenemos en cuenta
que la imagen satelital son matrices y que se pueden realizar algoritmos sobre las matrices.
Se establecen relaciones entre las variables a determinar y lo que mide el sensor.
1. Producción primaria neta: a partir de datos satelitales y de una estación
meteorológica, podemos sacar la producción primaria de un campo en kilo por
hectárea por mes. Se saca a partir de la radiación fotosintética activa y de la fracción
de la radiación fotosintéticamente activa que se saca a partir de una fórmula que
obtenemos de sensores. Todo esto nos da la eficiencia en el uso de la radiación.
2. Contenido de clorofila de las hojas
3. Índice de área foliar:hace referencia a la proporción de hojas que cubre el suelo. En
otras palabras, es la razón entre el área foliar de toda la vegetación por unidad de
área ocupada por la vegetación (SEBAL, 2002). El LAI es un indicador de la biomasa
de cada píxel de la imagen.
4. Radiación absorbida por las plantas
68
5. Balance de agua, a través del balance de energía, saber si necesita agua.
6. Humedad del suelo, de las hojas
7. Materiales en suspensión en el agua
8. Contenido de CO2 en la atmósfera.
9. Evapotranspiración: hay varios métodos empíricos y semiempíricos. Se calcula el
índice de vegetación.
10. Riesgo de incendio→ índice trabajamos con variables, algunas provenientes de la
teledetección. Productividad de la vegetación y la temperatura superficial.
11. Índice de área quemada (BAI): la detección y delimitación de zonas afectadas por
incendios un índice muy utilizado es el denominado Burned Area Index (BAI) que se
aplica para discriminar áreas quemadas y trabaja con el comportamiento espectral
de elementos carbonizados en un incendio. Este índice se calcula a partir de la
distancia espectral de cada píxel a un valor de referencia, valor al cual convergen las
áreas recientemente afectadas por el fuego
12. También se puede a partir de la teoría, construir nuestros propios índices
Para hacer un índice hay que tener conceptos básicos incorporados: radiación solar y
terrestre (balance de energía), ondas electromagnética y leyes importantes.
69
En base a este último, se pueden calcular otros índices: índice de área foliar, dinámica
fenológica, radiación fotosintética activa absorbida por la planta, productividad primaria neta
de la vegetación, evapotranspiración potencial, etc.
En aquellas áreas donde la cobertura es menor al 50%, podemos utilizar otro índice: índice
de vegetación normalizado ajustado al suelo (SAVI). Incluye al NDVI y el uno, más una
variable. Toma esas partes del suelo que son tomadas por el sensor, tratando de separar la
información de la vegetación y el suelo. Se basa en la línea de suelo y la distancia que
hay entre ella. Una forma de calcularlo, puede ser a través de un diagrama de dispersión,
donde en el eje y ponemos el infrarrojo y en el x el rojo, se traza la línea que mejor se ajusta
a la base de los puntos graficados. La línea representa la línea de suelo, todos los valores
cercanos serían suelo y los más alejados serían vegetación (acercados al infrarrojo) o agua
(acercados al rojo). Los autores recomiendan usar un factor de 1 cuando tenemos un nivel
de densidad muy pobre, con un nivel intermedio 0.5 y cuando es muy alto 0.25.
Existen algunas operaciones algebraicas más sencillas, como por ejemplo los cocientes,
que se trata de una división entre dos bandas con diferente reflectancia. Estos son los
más usados para trabajar con aplicaciones geológicas.
Si trabajamos con agua, hay una gran cantidad de índices que se pueden aplicar. Se debe
tener en cuenta si trabajamos en agua continental o de mar, ya que sus propiedades ópticas
cambian.
● Índice normalizado de diferencia de agua (NDWI): Este índice normalizado, que por
sus siglas en inglés se conoce como NDWI, fue desarrollado por Mc Feeters (1987)
y resulta óptimo para realzar los cuerpos de agua y delinear redes de drenaje en
imágenes multiespectrales. El NDWI utiliza la radiación electromagnética
correspondiente al sector espectral del infrarrojo reflejado y la radiación
correspondiente al sector espectral del verde en la faja inherente al espectro visible.
Para el caso del sensor TM Landsat 5 y 7, la ecuación que define al NDWI es la
siguiente:
Verde-IR cercano/verde + IR cercano
Si trabajamos en un área urbana, los índices son más limitados, según la resolución
espacial que trabajemos:
➢ NDBI: trabaja con el infrarrojo cercano y el medio. Índice de área construida
estandarizado que muestra la proporción de construcción de cada pixel.
➢ NDVI: Se puede sacar también, el área verde.
➢ BU: índice de área construida que surge de la diferencia de los dos anteriores y
muestra que a mayor índice de construcción, menor índice de área verde.
¿Qué bandas serían útiles para construir un índice apropiado para mi estudio?
70
Análisis de imagen
71
cual es valor medio de cada clase y el rango en el que varía para todas las bandas que
estemos trabajando. Las estimaciones posteriores se basan sobre la muestra seleccionada,
por lo cual, la misma debe estar adecuadamente tomada y debe representar a la clase de
forma correcta.
Estas categorías van a estar clasificadas en dos grupos:
● Clases informacionales: constituidas por la leyenda que el intérprete va a
llevar adelante. Son establecidas por el intérprete o el que trabaja la imagen.
Lo ideal sería que cada una de las clases informacionales se corresponda a
una clase espectral
● Clases espectrales: agrupan píxeles que tengan similar reflectividad.
Lo ideal sería que cada una de las clases informacionales correspondiera a una clase
espectral. Normalmente no sucede así, puede ocurrir que una clase informacional esté
expresada en varias clases espectrales, la solución en este caso, es hacer un muestreo
mucho más detallado. Otro caso es que dos o más clases de información compartan una
misma clase espectral, la corrección estaría orientada a la leyenda. También, puede ocurrir
que varias clases informacionales compartan clases espectrales, donde se debe replantear
todo el trabajo→ confusión de clases espectrales.
72
cubierta), no deben ser muy grandes (más posibilidad de incluir error), deben abarcar las
variaciones espaciales de cada una de la cubiertas.
Las áreas de entrenamiento puede ser seleccionadas a partir de:
❖ La digitalización de polígonos: se debe tener en cuenta el tamaño de la muestra
(autocorrelación) el efecto de frontera y las formas (figuras geométricas regulares,
trazado irregular). Es preferible seleccionar muchos pequeños polígonos→ se deben
seleccionar más de un píxel, sin embargo un píxel, dentro de un polígono debe ser
superado varias veces.
❖ Semillado: es más automático, me paro en un pixel y a partir de ahí, se expande,
seleccionando los píxeles con un valor similar.
Una vez que tenemos las áreas de entrenamiento, las mismas se pueden evaluar, haciendo
de cada una la firma espectral. Van a existir varias clases que se van a estar mezclando→
hay que buscar separarlas. Conviene que exista un control de campo en superficie.
73
las clases que hizo el isodata. Por último se
hace una evaluación de esa clasificación.
74
demanda un mayor volumen de cálculo (necesita media y desviación media). Como
ventaja, es mucho más preciso que los anteriores, considera dispersión, pueden
introducirse límites y es más empleado en teledetección.
3-Verificación de resultados.
75
para estimar las distancias a partir del tiempo transcurrido entre la emisión y la recepción de
la onda.
Los actuales utilizan microondas que van desde un mm hasta un metro de longitud de
onda. Además, existen los sistemas lidar, basados en la transmisión de luz láser en
longitudes de onda más cortas. El sonar, transmite ondas de sonidos, a través de una
columna de agua.
Las imágenes de radar tienen ciertas características que las imágenes ópticas no las tienen:
❖ Captar imágenes tanto de día como de noche
❖ Fuente de iluminación controlable, se puede prender, apagar o enviar cierta
potencia.
❖ Transparente a la influencia de la atmósfera: apropiado para regiones tropicales de
gran cobertura nubosa
❖ Se pueden identificar mejor aquellas características asociadas a la rugosidad de las
superficies. Ejemplo Egipto: no se distinguen solo mantos superficiales, tiene
capacidad de penetrar sobre el suelo.
SAR (Radar de apertura Sintética): estos radares comenzaron a utilizarse a partir del año
1950 y hacia 1970 se comenzaron a usar con fines civiles. La utilización de radar a nivel
orbital se inició con el lanzamiento del SEASAT en 1978, donde la NASA inició el Programa
SIR ("Shuttle Imaging Radar") que consistió en una serie de vuelos de corta duración. En
estos sensores se resolvió el problema de la resolución azimutal. Los SAR son sistemas de
iluminación lateral que generan imágenes de alta resolución. Al moverse a lo largo de su
trayectoria, el radar ilumina la superficie en estudio hacia la dirección de vuelo en franjas
continuas y paralelas entre sí. De este modo se capta la información reflejada, se la graba y
se la procesa para finalmente generar la imagen. El SAR es un radar de alta resolución que
funciona utilizando una antena sintética a bordo de plataformas aéreas móviles. Este tipo de
radar utiliza el movimiento de la plataforma para obtener una antena sintética de mayores
dimensiones y, por lo tanto, tiene alta resolución y puede cubrir superficies extensas.
Durante el proceso de adquisición de datos, el blanco permanece iluminado bajo el haz de
la antena durante varios instantes, siendo observado por el radar desde numerosas
posiciones.
76
Ventajas Desventajas
Funciones
Transmiten su propia energía desde el sensor hacia el terreno, que interactúa con el mismo
produciendo retrodispersión. La energía se refleja hacia el sensor que es registrada por el
receptor junto con el tiempo transcurrido.
1. Transmitir señales de microondas.
2. Recibir la porción de energía transmitida que se refleja hacia el sensor.
3. Observar la potencia de la señal reflejada y el tiempo necesario para que la señal
regrese al sensor.
Partes básicas
Esa iluminación que sale del sensor es provista de ondas electromagnéticas con una
determinada longitud de onda, generado por un modulador de pulsos. Transmitido por el
terreno hacia la tierra. Cuando el pulso regresa, la antena en modo receptor, genera o
registra la potencia, la fase y el tiempo transcurrido entre la emisión y la recepción.
El instrumental está compuesto
➢ Transmisores
➢ Receptores
➢ Comunicador de transmisor y receptor
➢ Antena
➢ Consola
77
Existe una diferencia significativa cuando hablamos de radar en plataformas aéreas y radar
en plataforma satelital. Los radares en satélites operan en una sola frecuencia y los aviones
pueden disponer de más de una frecuencia. La limitante está dada por la disponibilidad de
energía, los satélites tienen mucha más trayectoria, por lo tanto, requieren mucha más
energía (recorrido del pulso). El diseño de la antena es específico para transmitir y recibir en
una determinada frecuencia. Un sistema radar con multifrecuencia necesita muchas
antenas. Los datos multifrecuencias se obtienen a partir de diferentes plataformas
satelitales.
El sistema consiste en un mecanismo que genera pulsos electromagnéticos que controlan la
emisión de la energía desde un transmisor y accionan un mecanismo de registro. La antena
emite un pulso y recibe la respuesta. El computador electrónico evita la interferencia entre
los pulsos. El receptor es un amplificador del pulso recibido por la antena. El pulso recibido
es grabado por el procesamiento posterior en el segmento posterior.
El tamaño de la antena es controlado por la longitud física de la misma. El barrido para la
obtención de la imagen es producido por el movimiento del satélite por el paso sobre el
área.
78
Durante el proceso de adquisición de datos, el blanco va a permanecer iluminado bajo el
haz de la antena durante varios instantes y va a poder ser observado desde numerosas
posiciones.
Cuando en los sistemas radar hablamos de resolución es un concepto diferente: resolución
en dirección al acimut y resolución en dirección al rango
● Resolución en dirección al rango: va a depender de cuan largo sea el pulso.
● Resolución en dirección al acimut: es determinado por el ancho de la banda que va a
ser inversamente proporcional al largo de la antena (apertura. Una antena más larga
va a producir un ancho de iluminación más angosto y una resolución más alta.
Los radares de apertura sintética se llaman así porque pueden sintetizar utilizando el
movimiento de la plataforma para simular una antena más larga.
➢ Cada píxel en la imagen de radar representa una cantidad compleja de energía
reflejada de vuelta al satélite.
➢ La magnitud de cada píxel representa la intensidad de la señal reflejada.
Imagen
Las imágenes contienen información sobre la estructura de los objetos y las propiedades
dieléctricas. Las características de la señal que se retro dispersa está influenciada por
parámetros del radar y parámetros de la superficie. Existen 3 parámetros de radar que
tienen influencia directa en la característica de la señal:
Longitud de onda: Longitudes de onda más frecuentes son las que se encuentran
señaladas con letras puestas de forma arbitraria, que se refieren a una longitud de onda
determinada.
o VHF
o P-band
o L-band muy pocos radares de banda L (ejemplo SAOCOM, segundo sensor a nivel
internacional)
o C-band
o X-band
o Ku-band
o Ka-band
79
de las ondas. La capacidad polarimétrica va a estar determinada por el numero de planos
que puede transmitir y recibir el haz de ondas electromagnéticas. Dentro de las
polarizaciones lineales tenemos la vertical (el radar transmite y recibe el haz en el plano
vertical) y la horizontal. Existen radares que pueden recibir la energía de ambas maneras,
de este modo, existen cuatro combinaciones posibles de polarizaciones:
o Similar: Un HH (transmisión y recepción vertical) y VV (transmisión y recepción
vertical).
o Cruzada: HV (transmisión horizontal y recepción vertical) y VH (transmisión vertical y
recepción horizontal)
Son las formas en las que se pueden pedir las imágenes, son las diferentes formas en el
que el pulso energético se transmite y se capta.
También hay formas alternativas para pedir imágenes, que nos dan diferentes tipos de
visión:
o Polarización dual: HH y HV, VV y VH o HH y VV
o Polarización alternativa: HH y HV alternando con VV y VH
o Polarimétrica: HH, VV HV y VH
Los sistemas de investigación tienden a tener polarización múltiple, generalmente se pide
cuadripolarizacion. La polarización múltiple ayuda a identificar las características físicas de
la superficie reflectora:
Alineación de estructuras con respecto al radar
Carácter aleatorio de la reflexión difusa
Estructuras angulares
Rugosidad que induce reflexión del tipo Bragg
Si tengo la estructura del objeto y sus características, en cuadripolarizacion, tengo muchas
características que no nos dan los ópticos.
Ángulo de incidencia: es el parámetro más importante para describir la geometría
relativa entre el radar y la escena que se observa. La
altura del sistema altera el ángulo de incidencia y por
lo tanto la geometría de observación. La mayor altitud
de los sistemas espaciales significa que los ángulos
de incidencia serán menores.
Los sistemas aéreos cubren una gama más amplia de
ángulos de incidencia (15°-60°) que los sistemas
espaciales (37°-40°).
80
El ángulo de incidencia va a influir en el tono de brillantez de la imagen. Para terrenos de
relieve bajo se usa un ángulo de incidencia de 10° , con relieve moderado 30° y un terreno
de relieve alto con 60°.
81
Objetivos
💭 Calidad y homogeneidad de la información geográfica
💭 Facilitar mantenimiento→ evitar duplicaciones, evitar
💭 Promover la documentación/catálogo de datos
un costo extra
geográfica
Origen
Surgen en la cumbre de la tierra en Río de Janeiro (1992), donde se trabata la protección
al medioambiente y se aprobó una importante resolución con el fin de alcanzar un desarrollo
sostenible y de proteger el medio ambiente del deterioro
medioambiental. Aparecen problemas de la información
geográfica y de allí, su importancia para el estudio:
I. Calidades muy diferentes y sin especificar
II. Disparidad de escalas y formas
III. Información geografica inaccesible
IV. Mercado sin regular: distintos proveedores con similares
productos
V. Falta de estándares de intercambio
La importancia de la información geográfica en relación con la toma de decisiones y el
tratamiento de cuestiones nacionales de creciente importancia, regionales y globales fue
mencionada como crítica. La información geográfica es vital para tomar decisiones
acertadas a escala local, regional y global. El énfasis en la armonización de estándares
para obtener e intercambiar datos espaciales, la coordinación de la obtención de datos y las
actividades de mantenimiento y el uso de conjuntos de datos comunes. Existe una clara
necesidad, a todos los niveles, para poder acceder, integrar y utilizar datos espaciales
procedentes de fuentes dispares con el fin de guiar la toma de decisiones. Solamente, a
través de convenciones comunes y acuerdos técnicos será posible fácilmente, para las
personas encargadas de la toma de decisiones a nivel de comunidades locales, regionales
y naciones, descubrir, adquirir, explotar y compartir información geográfica vital para la toma
de decisión.
82
Jerarquía DIKW: referente al ambiente geográfico
1. Datos: son las fuentes primarias y proveen datos básicos.
2. Información: ya se pasa por un proceso de entendimiento de los datos.
3. Conocimiento: se buscan patrones espaciales que expliquen la información
4. Sabiduría: son las más complejas, pueden generar principios o leyes generales.
Componentes
● Organización:
○ Gobierno: decisiones políticas y marco legal, a través de acuerdos y
coordinación, con el fin de poner a disposición la información geográfica. Le
dan su correcto funcionamiento
○ Recursos y financiación: clave.
83
○ Difusión y promoción: que se conozca la IDE
○ Seguimiento e informes.
● Servicios: obligación de brindar servicios. Medios para descubrir, visualizar y evaluar
información
○ Sistemas y servicios web: datos y atributos.
○ Interoperabilidad. Reglamentos, estándares y directrices técnicas
○ Tecnología y arquitectura de red: metodo para dar acceso
○ Metadatos de servicios.
● Metadatos:
○ Metadatos de datos
○ Catálogos, normas, reglamentos, directrices y perfiles.
● Datos
○ Usuarios
○ Productores
○ Reglamentos y especificaciones de datos.
Objetivo de compartir, intercambiar y colaborar con la Información geográfica, siendo un
ámbito colaborativo. Siempre está en construcción.
IDERA:
IDERA es un ámbito de trabajo colaborativo conformado por los diferentes niveles de
gobierno, cuyo objetivo es la estandarización y la difusión del acceso a la información
geoespacial del país.
Catálogos de objetos
El catálogo de objetos geográficos se basa en la abstracción de la realidad clasificada en
conjuntos de datos geográficos, cuyo nivel básico es el tipo de objetos.
En el catálogo se organizan esos objetos geográficos, sus definiciones y características, es
decir, sus atributos, dominios, relaciones y operaciones. La catalogación conduce a los
usuarios y productores de IG tener una definición de los objetos geográficos en un lenguaje
común con respecto al contenido de datos, permitiendo una mayor comprensión de su
contenido y alcance. Establece las bases para la interoperabilidad, el uso e intercambio de
datos geográficos entre diferentes usuarios.
Norma: ISO (International organization of standardization) 19110.
👍
Ventajas:
👍
Definir la estructura interna de la información vectorial
👍
Aumentar el entendimiento y uso de la información geográfica.
👍
Incrementar la integración e intercambio de la información geográfica
👍
Establecer definiciones de los objetos que aplican para cualquier escala
Reducir los costos de adquisición de datos y simplificar el proceso de especificación
👍
de los productos
Generar conjuntos de datos particulares
84
1. Datos fundamentales: permiten generar proyectos de intercambio de información
entre diferentes instituciones. Datos geoespaciales básicos de cobertura nacional o
local y que a su vez, representan los objetos geográficos más relevantes para el
desarrollo. Base sobre la cual se construyen otros datos espaciales, permiten la
localización espacial de datos, sirven como base para la resolución de problemas
y proveen una base para que los usuarios puedan superponer y compartir sus datos.
a. Nivel 0: son los primeros en el proceso de producción, siendo esenciales
para todos los conjuntos de datos subsecuentes. El proceso y análisis de
estos por lo general están restringidos por cálculos geodésicos.
b. Nivel I: dependen de los de nivel 0 para su creación. Están limitados por
procesos de interpretación y el grado de objetividad es alto. Esta
categoría también incluye límites que son resultado de los procesos de
decisión humana.
c. Nivel II: están relacionados con objetos hechos por el hombre. La
definición es idéntica a la de nivel I, pero solo hace referencia a los objetos
hechos por la mano del hombre.
2. Datos secundarios: datos temáticos genéricos, basados en datos primarios y
derivados del análisis. Los datos en esta categoría son temáticos por naturaleza,
pero de interés general y esencial para otros datos temáticos.
3. Datos no fundamentales: son datos temáticos específicos derivados de
análisis. En esta categoría se clasifican los datos que no están en los niveles de 0 a
III. Los datos pueden ser cualitativos o cuantitativos.
85
Clases
Está compuesta por un conjunto de subclases relacionadas, lo que permite categorizar
de manera general la IG. Se identifica por un nombre y un código único dentro del Catálogo.
La codificación utilizada en el nivel de Clases está formada por dos dígitos numéricos y se
corresponde, en general, con la utilizada en el “DGIWG Feature Data Dictionary (DFDD)”, el
cual es el ejemplo de aplicación recomendado por la Norma ISO/TC211 19126 (Información
Geográfica. Esquema para Diccionarios de Conceptos de Objetos).
Subclase:
Está compuesta por un conjunto de objetos geográficos relacionados que comparten
similares características y se ordenan dentro de una categoría de orden superior
denominada Clase. Brinda información relevante de los objetos que la componen,
agilizando la utilización del Catálogo. La codificación utilizada en el nivel de Subclases está
formada por cuatro dígitos numéricos y se corresponde, en general, con la utilizada en el
“DGIWG Feature Data Dictionary” (DFDD).
Objetos geográficos:
Los OG son abstracciones de elementos del mundo real asociados con una posición
geográfica y temporal, respecto a los cuales se recolectan datos, manteniendo y
difundiendo IG. Un OG se representa como un elemento discreto y único que está asociado
a su posición espacial y temporal, pudiendo ser representado mediante un símbolo gráfico
particular. Estas instancias de objetos individuales se agrupan en clases con características
comunes: tipos de objetos. Debido a que la IG se percibe en forma subjetiva, su contenido
está relacionado con las necesidades de las aplicaciones particulares. La codificación
utilizada en el nivel de OG está formada por seis dígitos numéricos. Los dos primeros
dígitos corresponden a la Clase a la cual pertenece, los dos dígitos siguientes indican cuál
es la Subclase dentro de la Clase, y los últimos dos dígitos corresponden al OG.
Atributos
Los atributos son las características propias que describen e informan sobre los OG,
tomando valores individuales en cada instancia del objeto. Diferencian un OG de otro,
haciéndolo único. Un mismo atributo puede usarse para describir a más de un OG. A cada
atributo se le asigna un código alfanumérico único formado por tres dígitos, se le da un
nombre, se lo define, se establece su tipo de atributo, si está asociado a un dominio y su
unidad de medida. En la medida de lo posible, se prioriza el uso de los atributos del DFDD y
se respeta su codificación. El tipo de dominio figura con valor “SI” en caso de que exista un
dominio relacionado y con valor “NO” en caso de que el atributo no tenga ningún dominio
relacionado.
86
La Interoperabilidad constituye la posibilidad de combinación de los conjuntos de datos
espaciales y de interacción de los servicios, sin intervención manual repetitiva, de forma
que el resultado sea coherente y se aumente el valor añadido de los conjuntos y servicios
de datos. La interoperabilidad es la condición mediante la cual sistemas heterogéneos
pueden intercambiar procesos o datos (independiente de sistema operativo, programa,
versión del programa, etc.).
87
➢ Datos o información de mala calidad generan invariablemente resultados de mala
calidad.
➢ Utilizar un dato o información geográfica de mala calidad es equivalente a utilizar un
modelo equivocado.
➢ Un dato o información geográfica con un error superior al que puede resultar
tolerable para determinada tarea hace que la calidad de este sea insuficiente y los
resultados obtenidos carezcan de valor.
¿Qué es la normalización?
Conjunto de actividades consistentes en la elaboración, difusión y aplicación de normas
como forma de establecer soluciones productivas a situaciones repetitivas.
Una norma es un documento público, no obligatorio, consensuado entre las partes,
elaborado por un organismo de normalización, que recoge los conocimientos,
recomendaciones científico-técnicas surgidas de las experiencias, orientado a la
simplificación, unificación y clasificación de los procesos y productos. En la IG, el uso de las
mismas, permite ahorrar en gastos de desarrollo, conseguir economías de escala,
abaratar la adquisición de datos, facilitar la medida de la calidad, liberar a los cautivos del
sistema, reciclar datos, interoperar
💧
Calidad significa:
💧
Identificar los factores relevantes 19157
💧
Evaluar los factores con métodos adecuados. 19157
💧
Cuantificar las evaluaciones utilizando medidas comparables. Iso 19157
💧
describir adecuadamente todos los aspectos en metadatos. 19115 y 19157.
Especificar adecuadamente todos los aspectos en especificaciones de producto de
💧
datos 19131
Asegurar la calidad de los suministros de datos provenientes de terceros. 19158
Tomarse el tiempo para a el diseño, modelado, abstracción, construcción, bosquejo,
maquetado, etc.
88
● Comprensión, completitud o totalidad: comisión (exceso de datos) y
omisión (ausencia de datos)
● Consistencia lógica: consistencia del dominio (proximidad al valor de
dominio establecido), consistencia de formato (estructura de acuerdo
a la norma), consistencia conceptual (reglas definidas en esquema
conceptual) y consistencia topológica (relaciones topográficas entre
objetos.
● Exactitud posicional: absoluta (respecto a una referencia externa),
relativa (respecto a otros elementos) y datos en malla (respecto a
otros elementos)
● Exactitud temporal: en la referencia (veracidad en la referencia
temporal), consistencia temporal (correcto orden temporal o
secuencial), validez temporal (validez de datos respecto al tiempo).
● Exactitud temática: clasificación (objetos clasificados correctamente),
atributo cualitativo (los atributos cualitativos estén correctos), valor
dado a un atributo cuantitativo (los atributos cuantitativos estén
correctos).
Usabilidad: grado de adherencia a un conjunto específico de requisitos de calidad de datos.
Todos los elementos de calidad pueden usarse para evaluar la calidad, aunque un mismo
producto puede tener diferentes usabilidades.
2. Evaluar con métodos adecuados: como se llevará a cabo la evaluación de los
factores
3. Cuantificar adecuadamente y de forma comparable: qué medidas hemos de
utilizar.
4. Describir adecuadamente todos los aspectos: Estructura lógica del informe.
Metadatos
Los metadatos consisten en un conjunto de atributos necesarios para describir y
documentar un recurso en particular. Su fin principal es asegurar, para el usuario interesado
en un recurso, la documentación mínima indispensable para juzgar el recurso, su
confiabilidad práctica y alcance, su grado de actualización y las responsabilidades
involucradas en su creación, entre innumerables atributos disponibles.
89
✔ Los generadores y usuarios pueden anunciar y promover la disponibilidad de sus
datos
💡
nacionales de normalización.
ISO 19115: los elementos de los metadatos se agrupan en entidades y para definir la
💡
jerarquía y relación entre ellos, así como su función, se ha publicado esta norma.
ISO 19139: cómo debe hacerse la creación y validación de ficheros con formato
💡
XML para garantizar la normalización entre las fuentes de datos.
ISO 19113: Aunque en algunos entornos, como HTML, no hay diferenciación entre
mayúsculas y minúsculas, se recomienda siempre como práctica más recomendable
atenerse a las convenciones de uso de mayúscula/minúscula en los nombres de los
elementos que se proponen, para evitar problemas en el caso de que los metadatos
se extraigan o se conviertan posteriormente a un entorno donde sí se diferencian
mayúsculas y minúsculas como puede ser XML.
90
● Consistencia lógica: grado de cumplimiento de reglas lógicas de la estructura de
datos, atributos y relaciones (la estructura de datos puede ser conceptual, lógica o
física)
● Exactitud posicional: exactitud de la posición de los objetos geográficos
● Exactitud temporal: exactitud de los atributos temporales y relaciones temporales de
los objetos geográficos
● Exactitud temática: exactitud de los atributos cuantitativos y corrección de atributos
no cuantitativos, así como de las clasificaciones de los objetos geográficos y sus
relaciones
En una lista se encuentran los elementos de metadatos esenciales que se necesitan para
identificar un conjunto de datos, por lo general para fines de catalogación. Esta lista
contiene elementos de metadatos que responden a las siguientes preguntas:
● ¿Existe un conjunto de datos sobre un tema específico (‘qué’)?»,
● «¿para un lugar específico (‘dónde’)?»,
● «¿para una fecha específica o periodo (‘cuándo’)?» y
● «¿hay un punto de contacto para saber más acerca del conjunto de datos u
ordenarlo (‘quién’)?». }
El uso de los elementos opcionales recomendados además de los elementos obligatorios
aumentará la interoperabilidad, permitiendo a los usuarios entender sin ambigüedades los
91
datos geográficos y los metadatos relacionados que haya proporcionado el productor o el
distribuidor.
92
CUÁNDO (los momentos significativos en la vida del recurso) • CÓMO (las
metodologías de captura y proceso de información para la generación y edición del
recurso)
El paquete básico de elementos compuesto como el Perfil de IDERA de la norma ISO
19115, un subconjunto mínimo de elementos considerados necesarios e indispensables. A
fin de asegurar la interoperabilidad de la información generada y la disminución de fuentes
de error durante la carga de datos, algunos elementos se eligen de listas con términos
sugeridos a través de vocabulario controlado. Otros campos son de carga libre aunque se
realizan recomendaciones específicas en cada caso.
Objetivos
➢ Almacenamiento, manejo y manipulación de grandes volúmenes de datos
geográficos→ ESPACIALMENTE GEOREFERENCIADOS
➢ Proveer los medios para llevar a cabo análisis que implican, de manera
específica, el componente de POSICIÓN GEOGRÁFICA. La geografía tiene como
93
principal objetivo estudiar las distribuciones que se dan en el espacio→ medio
específico para llevar adelante este objetivo.
➢ Organización y administración de los datos, de tal forma que la información sea
accesible a los usuarios.
➢ Vinculación de diversas bases de datos.
Componentes
● Personas (investigadores)
● Hardware y software
● Datos: integra datos de diferentes formatos
● Procedimientos: su principal es el modelado pero existen otros como el análisis,
colector de información o representación. no son para hacer cartografía.
Todo SIG tiene una entrada de datos o información que se estructura en una base de
datos que tiene una referencia espacial (cada una). Tiene que existir también un
mantenimiento, transformación y actualización de la información→ para que sea
SOSTENIBLE en el tiempo. Se pueden realizar consultas y se puede generar una salida.
Una de las cuestiones fundamentales en un SIG, es la PLANIFICACIÓN→ tiene que
planificarse con tiempo, ser pensado de forma ordenada y saber a donde voy, cuántas
personas van a trabajar, etc.
Funciones
Una de las funciones clave es que son un soporte para la TOMA DE DECISIONES.
Siempre hay una entrada de datos, un tratamiento y una salida. En la interpretación de ese
modelado vamos a tener los resultados para tomar una decisión correcta.
Partiendo del mundo real, vamos a hacer una codificación para hacer un modelo de
representación de datos y el espacio. Después se realiza un manejo espacial, temporal o
temático. En el análisis se pueden hacer consultas, modelados u operaciones algebraicas.
Todo para sacar un reporte cuyos resultados pueden ser información, localización
específica, gráficos, bases de datos, etc.
Importancia
➢ Integran información espacial y de otros tipos
➢ Ofrecen un marco consistente de análisis para los datos geográficamente
referenciados→ geografía como sustento.
➢ Ofrecen nuevas y novedosas formas para manipular y desplegar datos
➢ Permiten la visualización y el análisis de datos con base en las relaciones y
proximidades geográficas.
En todo SIG estas relaciones se establecen a partir de tener datos espaciales o entidades
espaciales asociadas a sus atributos.
La integración se hace a partir de la conjunción de los conceptos de espacio y tecnologías
de la información, que buscan analizar espacialmente los fenómenos del territorio haciendo
una abstracción del mundo real:
■ Localización: entidades (y sus atributos) que tienen una ubicación específica
en el espacio geográfico. Se basa en el espacio absoluto pues en él existen sitios
(latitud-longitud) específicos y fijos de emplazamiento sustentados en una topografía
y condiciones geográficas particulares locales. De igual forma se basa en el espacio
94
relativo posición (diferentes escalas y de medición) específica y cambiante respecto
de otros sitios con los cuales se pueden establecer vínculos formales.
■ Distribución: conjunto de entidades de un mismo tipo que se reparten de
determinada manera sobre el espacio geográfico, generalmente de manera
heterogénea. Hace referencia también a las localización dispersa que presentan
puntos y zonas de clases continuas.
■ Asociación: semejanzas entre distintas distribuciones espaciales la cual parte
de un análisis visual (interpretación visual). Poder encontrar diferentes áreas con
homogeneidades propias permite poner límites al espacio geográfico. Este trazado
de límites sobre un mapa como resultado de la combinación de distribuciones y
asociaciones espaciales se transforman en herramientas de planificación.
■ Interacción: estructura un espacio relacional en el cual las localizaciones (sitios)
distancias (ideales y reales) y vínculos resultan fundamentales en la diferenciación
de espacios funcionales. Poder obtener relaciones entre sitios→ interacción.
■ Evolución espacial. TIEMPO
Se requiere de una construcción enfocada no solo al manejo técnico de herramientas en
SIG, sino también en conceptos geográficos fundamentales de la herramienta y la
investigación→ manipular o ser operario de un software no significa saber o hacer una
construcción de un SIG. Si no hacemos hincapié en los conceptos fundamentales que
tienen como soporte el SIG o de la herramienta y si no hacemos una investigación precisa
vamos a terminar teniendo una simplificación.
En un SIG se modelan datos geográficos. La representación de la información
geográfica se realiza estructurando datos espaciales para la realización del modelo
de la realidad. Esta estructura de datos (cualitativos o cuantitativos), catalogada con
variables de un territorio es la que provee información clave organizada para la toma de
decisiones.
Los SIG son parte de un sistema integrado donde tenemos datos descriptivos y datos
espaciales que forman la geografía. La unión de ambos son los SIG.
Capacidades:
1. Localización: qué hay en
2. Condición: donde hay
3. Estudiar la evolución: que ha cambiado desde
4. Establecer Patrones: que patrón existe
5. Hacer un Modelamiento: que pasa si
Dato
Para trabajar con un SIG es necesario saber la diferencia entre dato e IG.
El DATO es un insumo básico para desarrollar tareas. Descripciones básicas de cosas,
acontecimientos, actividades y transacciones que se registran, clasifican y almacenan pero
que no se organizan de acuerdo con ningún significado específico. Los elementos datos
pueden ser numéricos, alfanuméricos, figuras, sonidos e imágenes.
Es un hecho verificable sobre la realidad que nos informa sobre realidades de tres tipos:
I. Espaciales: donde está, cuanto mide, etc.
II. Atributivas: tipo de litología, propietario.
III. Topológicas: relaciones geométricas entre los objetos.
95
Simple conjunto de valores o elementos que utilizamos para representar algo.
Información
Corresponde a los datos que se han ORGANIZADO (procesados) de modo que tengan
significado y valor para el receptor. Este interpreta el significado y obtiene conclusiones e
implicaciones→ toma de decisiones.
Resultado de un dato y una interpretación. Un dato puede esconder más información que la
que a primera vista puede apreciarse→ con la interpretación de los datos se puede obtener
esta.
Uno de los PROBLEMAS a los que nos enfrentamos cuando estamos realizando un SIG es
que el mundo real está compuesto por una cantidad de detalle/variables de carácter
infinito y la representación a través de los modelos es limitada. Para la construcción de
ese modelo de la realidad con datos infinitos que tienen que ser llevados a finitos hay una
serie de establecimientos que se deben construir. Uno de los primeros pasos es la
construcción de un modelo geográfico (modelo conceptual). El establecimiento de un
modelo de representación, se apoya en el anterior y hace la reducción finita de la
información. El establecimiento del modelo de almacenamiento, que es como almacenar
los diferentes elementos que nosotros vamos a representar de ese modelo de la realidad.
★ El modelo geográfico es básicamente un modelo conceptual relativo a cómo se
va a interpretar toda la realidad geográfica que se estudia. Conceptualizar el
espacio, la variable que voy a tratar y las variaciones que puede sufrir. No
incorpora representación o almacenamiento. Para su construcción es necesario el
conocimiento de todas las características geográficas: ubicación absoluta en el
espacio (coordenadas), ubicación relativa en el espacio (características de su
entorno) y posee como mínimo de características que lo describe o define
denominado atributo.
★ Modelo de representación: existen dos
○ Vectorial: define al espacio mediante elementos geométricos con
valores asociados. La componente espacial se recoge explícitamente por
una serie de puntos y esta se relaciona con una serie de valores que le dan
propiedad a esa entidad geográfica formando la componente temática que
puede tener o no una topología. Entonces, tenemos una realidad espacial
que va a estar representada por una geometría y que va a tener asociada un
atributo que la va a describir.
○ Raster: se basa en una división sistemática del espacio, caracterizándose
como un conjunto de unidades elementales. La componente espacial y
temática están relacionadas. Representa un punto/línea/aérea como un
96
conjunto de celdas dentro de una matriz. El tamaño de cada celda
determina el grado de resolución de los datos.
Es una estructura matricial regular:
➢ Se construye superponiendo al terreno una matriz regular y
asignando a cada celda el valor medio del área que cubre
➢ Las coordenadas espaciales están implícitas en la estructura y
dependen de los valores fila columna de la celda
➢ Esta estructura es la utilizada para manejar las imágenes digitales
procedentes de teledetección y los modelos digitales del terreno
➢ Los atributos están contenidos en la estructura como valores de las
celdas: no existen tablas asociadas ni estructura topológica
propiamente
➢ Es una estructura simple pero puede ser altamente redundante
Topología: Hace referencia a las propiedades no métricas. Mantienen las relaciones
geométricas existentes entre objetos. Un modelo de datos topológicos va a registrar
relaciones espaciales representando objetos espaciales como un gráfico de nodos. Se basa
en la matemática. Una estructura topológica se basa en la definición de conectividad (los
arcos se conectan entre sí en los nodos), de área (los arcos que circunda un área definen
un polígono) y de contigüidad (los arcos tienen dirección hilada).
El modelo nos ayuda a encontrar geometrías coincidentes. Permite que las entidades que
nosotros definimos sean las reales.
Vectorial Raster
En los SIG voy a tener la posibilidad de realizar análisis espacial de diferentes tipos y
diferentes niveles de complejidad: consulta espacial (tipo de suelo, localizacion, ciudades
mas pobladas), análisis topológico (como se llega a un lugar, provincias que comparten
97
límites con x), medición (calcular áreas, perímetros, etc), combinación (de dos capas
temáticas), transformaciones (áreas de influencia, que ciudad tiene un mercado a menos de
1km, que calles no tienen hospitales en un radio de tantos metros, analizar distancias),
análisis de superficie (sacar pendientes, orientación, parámetros morfométricos, áreas de
peligrosidad de inundación), estadística descriptiva (análisis estadístico, si la media de
altura es constante, tendencia a aglutinarse); inferencia (inferir el comportamiento de las
variables y ver su evolución); toma de decisiones y optimización (localización de lugares
óptimos, ruta óptima para, que nos sirve llegar a la toma de decisiones) y modelización (lo
más complejo y tiene un conocimiento y tratamiento de la Ig por detrás)
98