Nothing Special   »   [go: up one dir, main page]

Sensoriamento Remoto e Vants - Final PDF

Fazer download em pdf ou txt
Fazer download em pdf ou txt
Você está na página 1de 116

Sensoriamento Remoto e Vants

Brasília-DF.
Elaboração

Márcio Felisberto da Silva

Produção

Equipe Técnica de Avaliação, Revisão Linguística e Editoração


Sumário

Apresentação.................................................................................................................................. 4

Organização do Caderno de Estudos e Pesquisa..................................................................... 5

Introdução.................................................................................................................................... 7

Unidade I
INTRODUÇÃO AO SENSORIAMENTO REMOTO......................................................................................... 9

Capítulo 1
Definição de sensoriamento remoto................................................................................. 9

Unidade II
PRINCÍPIOS BÁSICOS EM SENSORIAMENTO REMOTO............................................................................. 27

Capítulo 1
Tipos de sensores................................................................................................................ 27

Unidade III
INTERPRETAÇÃO E ANÁLISES DE DADOS EM SENSORIAMENTO REMOTO................................................. 50

Capítulo 1
Interpretação de imagens de satélites............................................................................. 50

Unidade IV
INTRODUÇÃO AO PROCESSAMENTO DE IMAGENS................................................................................ 70

Capítulo 1
Processamento Digital de Imagens.................................................................................. 70

Unidade V
Aeronaves Remotamente Pilotadas................................................................................................ 98

Capítulo 1
Definições............................................................................................................................ 98

Referências................................................................................................................................. 116
Apresentação

Caro aluno

A proposta editorial deste Caderno de Estudos e Pesquisa reúne elementos que se


entendem necessários para o desenvolvimento do estudo com segurança e qualidade.
Caracteriza-se pela atualidade, dinâmica e pertinência de seu conteúdo, bem como pela
interatividade e modernidade de sua estrutura formal, adequadas à metodologia da
Educação a Distância – EaD.

Pretende-se, com este material, levá-lo à reflexão e à compreensão da pluralidade dos


conhecimentos a serem oferecidos, possibilitando-lhe ampliar conceitos específicos da
área e atuar de forma competente e conscienciosa, como convém ao profissional que
busca a formação continuada para vencer os desafios que a evolução científico-tecnológica
impõe ao mundo contemporâneo.

Elaborou-se a presente publicação com a intenção de torná-la subsídio valioso, de modo


a facilitar sua caminhada na trajetória a ser percorrida tanto na vida pessoal quanto na
profissional. Utilize-a como instrumento para seu sucesso na carreira.

Conselho Editorial

4
Organização do Caderno
de Estudos e Pesquisa

Para facilitar seu estudo, os conteúdos são organizados em unidades, subdivididas em


capítulos, de forma didática, objetiva e coerente. Eles serão abordados por meio de textos
básicos, com questões para reflexão, entre outros recursos editoriais que visam a tornar
sua leitura mais agradável. Ao final, serão indicadas, também, fontes de consulta, para
aprofundar os estudos com leituras e pesquisas complementares.

A seguir, uma breve descrição dos ícones utilizados na organização dos Cadernos de
Estudos e Pesquisa.

Provocação

Textos que buscam instigar o aluno a refletir sobre determinado assunto antes
mesmo de iniciar sua leitura ou após algum trecho pertinente para o autor
conteudista.

Para refletir

Questões inseridas no decorrer do estudo a fim de que o aluno faça uma pausa e reflita
sobre o conteúdo estudado ou temas que o ajudem em seu raciocínio. É importante
que ele verifique seus conhecimentos, suas experiências e seus sentimentos. As
reflexões são o ponto de partida para a construção de suas conclusões.

Sugestão de estudo complementar

Sugestões de leituras adicionais, filmes e sites para aprofundamento do estudo,


discussões em fóruns ou encontros presenciais quando for o caso.

Atenção

Chamadas para alertar detalhes/tópicos importantes que contribuam para a


síntese/conclusão do assunto abordado.

5
Saiba mais

Informações complementares para elucidar a construção das sínteses/conclusões


sobre o assunto abordado.

Sintetizando

Trecho que busca resumir informações relevantes do conteúdo, facilitando o


entendimento pelo aluno sobre trechos mais complexos.

Para (não) finalizar

Texto integrador, ao final do módulo, que motiva o aluno a continuar a aprendizagem


ou estimula ponderações complementares sobre o módulo estudado.

6
Introdução
Atualmente, que se tem o auxílio de diversos equipamentos compostos de alta tecnologia,
é difícil de imaginar que, nos primórdios do Sensoriamento Remoto, utilizavam-se
pombos e balões.

O Sensoriamento Remoto tem a sua origem em tempos que remontam a época de


Galileu e a sua evolução para o status atual se deve aos grandes avanços da astronomia,
física, química, geociências, biociências, assim como nas áreas da computação, na área
mecânica, dentre outros.

Entende-se como sendo Sensoriamento Remoto a técnica da obtenção de informações


referente a um objeto ou alvo sobre a superfície, sem que haja para esse fim, o contato
físico.

Dessa forma, a sistemática de coleta de informações se dá a partir da emissão e/ou


captação de radiação eletromagnética por sensores e radares, acoplados em satélites
artificiais, aeronaves e veículos aéreo não tripulados (VANTs), bem diferente dos
pombos de décadas atrás.

Na mesma dinâmica da evolução tecnológica dos equipamentos de aquisição de dados,


as técnicas de interpretação de imagens, bem como as técnicas de processamento
digital, avançaram no mesmo passo.

Equipamentos como estereoscópio e mesa digitalizadora, já são lembranças de um


tempo passado, pois hoje se vive na era do digital, do geoprocessamento e do automático.

Nesse viés, essa apostila traz para esse módulo, as informações referentes aos pressupostos
teóricos e metodológicos do Sensoriamento Remoto e seus avanços evolutivos ao longo
das décadas.

Objetivos
»» Abordar de forma introdutória os conceitos referentes ao Sensoriamento
Remoto.

»» Explicar a sistemática de aquisição de dados por meios remotos.

»» Expor as classificações técnicas dos métodos de análise e interpretação


de imagens.

7
»» Caracterizar os programas espaciais vigentes.

»» Indicar quais as aplicabilidades do Sensoriamento Remoto.

»» Relacionar quais as novidades referentes às tecnologias atuais.

»» Elencar quais os procedimentos metodológicos para Processamento


Digital de Imagem.

»» Trabalhar na aquisição de imagens Landsat.

»» Trabalhar com o registro de imagens.

»» Trabalhar com a composição de bandas espectrais.

»» Trabalhar com a construção de mosaico de imagens.

»» Trabalhar com a classificação de imagem.

»» Estudar os aspectos técnicos, legais e de aplicabilidade dos VANTs.

8
INTRODUÇÃO AO
SENSORIAMENTO Unidade I
REMOTO
Figura 1.

Fonte: <www.nasa.gov>. Acesso em: 16/11/2016.

Capítulo 1
Definição de sensoriamento remoto

O termo sensoriamento remoto é entendido como a técnica da obtenção de dados ou


informações de um determinado objeto ou alvo sem que haja contato físico humano
com ele, ou seja, os dados são coletados a partir de sensores e radar acoplados em
satélites artificiais, aeronaves ou VANTs.

Para Florenzano (2002), o sensoriamento remoto é a tecnologia utilizada na obtenção


de imagens e dados, por meio do registro da energia absorvida ou emitida pela superfície
terrestre.

Fitz (2008) conceitua o sensoriamento remoto como a técnica da utilização de sensores


para fins de registro a distância sem o contato direto com eles, sendo que são os sensores
que obtêm essas informações a partir da energia da energia absorvida ou refletida pela
superfície terrestre.

Desta maneira, o sensoriamento remoto permite que os dados ou as informações de


uma determinada área estudada, fenômeno ou objeto sejam adquiridos sem que haja a
9
UNIDADE I │ INTRODUÇÃO AO SENSORIAMENTO REMOTO

presença do pesquisador no local de estudo. As informações adquiridas da área, objeto


ou alvo serão interpretadas por meio dos produtos do sensor que podem ser de vários
tipos como imagens, fotografias e outros tipos de dados.

Neste sentido, o sensoriamento remoto realiza a aquisição de dados remotamente,


não havendo a necessidade do contato humano para tais aquisições. Esses dados são
obtidos através de sensores remotos. Como resultado desse processo, temos o registro
de imagens ópticas ou imagens geradas a partir do sistema radar.

Vale lembrar que nem sempre os sensores funcionam como uma câmera fotográfica
produzindo imagens, em contrapartida, existem sensores não imageadores que geram
produtos, por exemplo, na forma de dados numéricos e gráficos.

Aproveitando a oportunidade do momento, e também para enriquecer o entendimento


acerca do assunto, é importante frisar o significado da sigla VANTs, que não deixa de
ser uma novidade no mundo do geoprocessamento, refere-se aos Veículos Aéreos Não
Tripulados, ou seja, são manipulados por controle remotos.

A princípio utilizados para fins bélicos, os VANTs ultimamente vem sendo utilizado
de forma cada vez mais crescente na obtenção de fotografias aéreas de precisão,
principalmente na agricultura no combate e controle de pragas.

No caso dos sensores remotos, a primordial forma de obtenção dos dados é por meio
da energia radiante emitida pelos alvos analisados por meio dos sensores. A energia
radiante é uma fonte de energia que pode ser gerada pelo próprio sensor como os
radares ou por fontes externas como é o caso da energia solar.

Em sequência disso, a energia captada pelos sensores logo é transmitida para uma
base receptora como é o caso das estações situadas ao longo da superfície terrestre,
as quais analisam as informações coletadas para servirem como fonte de dados para
diversos estudos.

De acordo com Moreira (2001), os sensores funcionam como dispositivos remotos


que têm a facilidade de capturar e registrar a radiação eletromagnética (REM), para
finalmente gerar dados precisos com a finalidade de vários usos e interpretação.

Em termos de tecnologia do sensoriamento remoto, vale lembrar as variadas definições


que recebe. Dependendo da visão e utilização do usuário de imagens de satélite,
podemos afirmar que algumas definições são mais bem apropriadas do que outras.

A origem do sensoriamento remoto remonta à época de Galileu, inicialmente a partir


deste princípio, essa tecnologia é hoje definida como a técnica de aquisição de dados

10
INTRODUÇÃO AO SENSORIAMENTO REMOTO │ UNIDADE I

sobre os mais diversos objetos, sem o contato direto com eles. A partir de então, podemos
dizer que um telescópio é considerado um sensor remoto, pois ele permite a análise e
obtenção de informações sem o devido contato com o alvo visado.

Esta é uma definição que abrange a evolução dos avanços da Astronomia ao longo dos
tempos. Ao entendermos tal definição, não reparamos que o olho humano também
se comporta como um sensor remoto. Entretanto, o termo sensoriamento remoto é
estreitamente ligado aos avanços no campo da tecnologia, em que os telescópios foram
os pioneiros neste quesito, permitindo nas últimas décadas formidáveis progressos
na construção de lentes ópticas utilizadas nos atuais e modernos sistemas sensoriais.
Podemos destacar entre eles, telescópios espaciais como, por exemplo, o grandioso
telescópio “Hubble”.

Contudo, sabemos que a definição de sensoriamento remoto hoje é voltada à Tecnologia


e, portanto, seu conceito apresenta uma nova abordagem na qual os sensores não
necessitam do contato com os objetos alvos, sem que o homem seja parte primordial do
processo de obtenção de dados. Embora tenha sido limitada, a definição segue de forma
ampla e contínua no que se refere às possibilidades de informações que se possa obter.

Para fazer uso das ferramentas do sensoriamento remoto, é necessário que se faça
antes, uma restrição do que se pretende estudar, de forma que especificando o tipo
de objeto de estudo, obtém-se o tipo de energia que possibilitará a transferência da
informação contida no objeto alvo para o sensor. Desta maneira, sonares e sismógrafos,
exemplos de energia acústica, e gravímetros, exemplo de energia gravitacional, poderão
ser considerados como sensores.

A energia eletromagnética se constitui como uma das mais importantes fontes de


energia no emprego do sensoriamento remoto. Isto porque a energia eletromagnética
proveniente da luz solar se propaga no vácuo a uma velocidade de 3 x 108 m/s em
direção ao sensor. Essa energia se comporta, portanto, como um meio, transferindo
informação partindo do objeto diretamente para o sensor.

Partindo deste conceito, pode-se acrescentar outra restrição com relação às definições
do sensoriamento remoto, a de que somente os equipamentos que captam energia
eletromagnética provinda da luz solar compõem-se de uma alta tecnologia, a qual
conta com modernos sensores que permite a extração de informações de fenômenos ou
objetos sem que haja contato humano na aquisição dos dados.

Levando em consideração todas estas informações, vale lembrar que há outras fontes
de energia vinda da luz sol, porém não podemos fugir do objetivo principal deste
estudo, limitando apenas às interações entre a energia eletromagnética absorvida pela
superfície terrestre.
11
UNIDADE I │ INTRODUÇÃO AO SENSORIAMENTO REMOTO

É importante dizer que essas outras fontes de energia, tais como a radiação eletromagnética,
recebidas de vários lugares e componentes do Universo pertencem somente a Astronomia.

A seguir, vamos entender o sensoriamento remoto não só como uma definição, mas
como um conceito real e histórico, partindo da visão dos analistas e técnicos que utilizam
os modernos equipamentos sensoriais que adquire e transmitem dados as plataformas
aéreas ou espaciais, com a finalidade de processar imagens de satélites para detectar
informações pertinentes às suas áreas de estudo.

História do sensoriamento remoto


O ponto inicial do desenvolvimento do sensoriamento remoto (SR) está relacionado à
invenção da câmera fotográfica e, no campo científico, da pesquisa espacial. O primeiro
instrumento considerado como um sensor remoto foi a câmera fotográfica. Por este
motivo, os termos fotogrametria e fotointerpretação foram empregados bem antes de
ser formulado o termo “sensoriamento remoto”.

A câmera fotográfica foi pioneira do campo do (SR). A primeira fotografia registrada


na história foi obtida pelo francês Joseph Nicéphore Niépce (1765-1833) em 1826, no
quintal de sua casa. O francês procurava um método que pudesse copiar desenhos
feitos em pedras de litografia, então ele cobriu uma placa de estanho colocada com
sais de prata, e a expôs por 8 horas em uma câmara. Ao final do experimento, Joseph
encontrou uma imagem contrastada em preto e branco que foi considerada a primeira
fotografia do mundo.

Com o descobrimento da fotografia, houve uma explosão no avanço fotográfico, tanto


que em 1858 já se utilizava fotografias para mapeamento de grandes áreas francesas.
Já as primeiras fotografias aéreas foram registradas em 1909 pelos irmãos Wrigth na
Itália. Antes disso, já se usava balões e zeppelins para tirar fotos da superfície terrestre.

As fotografias aeroespaciais propriamente ditas, registradas pelas aeronaves, tornaram-se


realidade com o surgimento do primeiro avião em 23 de outubro de 1906, o famoso 14
bis, apresentado ao mundo pelo ilustre brasileiro Alberto Santos Dummont.

A partir da evolução tecnológica e do surgimento do avião, as fotografias aéreas


coloridas foram possíveis em 1930. Nesta época, estudava-se a produção de filmes que
eram afetados pela radiação infravermelha.

Com o estopim da II Guerra mundial, houve avanços no estudo do comportamento da


interação da radiação na região do espectro infravermelho com vários objetos. Desta forma,
uma das primeiras aplicações da tecnologia do SR foi realizada para fins de uso militar.

12
INTRODUÇÃO AO SENSORIAMENTO REMOTO │ UNIDADE I

Em épocas passadas, foram desenvolvidas pequenas câmeras fotográficas com dispositivos


reguláveis que funcionavam como disparadores automáticos. Essas câmeras eram
carregadas com rolos de filmes, e eram colocadas no peito de pombos correio.

Esses pombos eram levados para locais estratégicos, onde, ao serem soltos, sobrevoariam
território inimigo. Assim, durante o voo dos pássaros, as câmeras já reguladas registravam
fotos da área inimiga. Muitos pombos morriam atingidos a tiros por militares inimigos,
mas outros resistiam e conseguiam realizar o percurso.

Estas fotos das áreas inimigas eram consideradas como poderoso material de
informação. Com esse material se podia fazer o reconhecimento, a infraestrutura e as
forças militares inimigas.

Com a evolução no campo tecnológico, os pombos já não eram mais utilizados, em


vez disso, eram utilizados balões com câmeras fixadas em sua base. Os balões eram
presos por cabos, os quais eram levantados, suspensos pelos militares a uma altura que
fosse viável fazer o registro de fotos da área inimiga. Após a captura de fotos, o balão
era puxado novamente e as fotos seriam reveladas para serem analisadas de utilizadas
como fonte de informação.

Após este período, as câmeras seriam transportadas agora por aviões. Em meados da
década de 1960 surgiram os aviões americanos denominados de U2, que eram utilizados
para espionagem. Hoje, estes aviões foram substituídos por outros mais modernos
que voam a 20.000 m da superfície terrestre, dificultando sua destruição por forças
inimigas. Com apenas um piloto a bordo, estes aviões são completamente tomados por
vários tipos de sensores, câmaras e muitos outros equipamentos.

Estes tipos de aviões são frequentemente utilizados. Em 1995, foi utilizado no


centro-oeste e região norte brasileira um destes aviões pelos Estados Unidos, para o
monitoramento de queimadas e diversos mapeamentos.

O ano de 1956 foi marcado pelas primeiras aplicações de fotografias aéreas nos EUA.
Já no Brasil em 1958 foram obtidas as primeiras fotografias aéreas na escala de
1:25.000 aplicadas inicialmente no estudo de bacias hidrográficas e corpos hídricos,
com o levantamento de dados da Bacia Terciária do Vale do Rio Paraíba.

O grande avanço na área do SR ocorreu no início de 1970, quando foram lançados os


primeiros satélites, permitindo o monitoramento de recursos naturais terrestres.

Os satélites, apesar de demandarem de grandes investimentos e bastante energia em


suas plataformas de lançamentos, orbitam o planeta Terra por muito tempo. Durante
esse processo, eles consomem muito pouca energia, justamente por quase não haver
resistência do ar e força gravitacional.

13
UNIDADE I │ INTRODUÇÃO AO SENSORIAMENTO REMOTO

Os satélites são calibrados então pela força centrífuga gerada a partir do movimento
orbital. Durante toda sua vida, os satélites realizam um processo contínuo de
imageamento da superfície terrestre que podem ser coletadas 24 horas por dia.

O processo evolutivo dos sensores remotos por satélites teve aparatos de quatro
seguimentos, são eles:

1. Sensores ópticos – consiste nos instrumentos essenciais no processo


de captação de imagens digitais, o qual se compõe por um sistema de alta
qualidade em que as imagens registradas possuem inestimado poder de
definição.

2. Sistema de telemetria – é constituído por um sistema que transmite


informações e dados geoespaciais para as devidas estações receptoras
situadas na superfície terrestre. Este sistema tem evoluído muito em
termos da qualidade de transmissão dos dados e das grandes quantidades
de dados armazenados e enviados como forma de imagens.

3. Sistemas de processamento – são os equipamentos essenciais


utilizados para armazenamento e processamento de dados, como
softwares computacionais.

4. Lançadores – como o próprio nome já sugere, trata-se das bases de


lançamento e de foguetes que transportam os satélites e os colocam em
órbitas terrestres. Estes lançadores têm evoluído permitindo colocar
em órbita satélites muito mais pesados e com grandes quantidades de
equipamentos que demandam de cada vez mais recursos tecnológicos.

Todo avanço e evolução do SR se devem pelo esforço de vários outros avanços na área
da astronomia, física, química, geociências, biociências, assim como nas áreas da
computação, na área mecânica, dentre outros.

Atualmente, o SR compõe-se de um vasto número de satélites em operação na orbita


da Terra, e há ainda outros satélites sendo planejados com específicas utilidades.
Como exemplo de satélites em operação, temos: o LANDSAT, CBERS, SPOT, QUICKBIRD,
IKONOS e NOAA.

Os cinco primeiros satélites são usados para fins de monitoramento e levantamento de


dados dos mais diversos recursos e fenômenos naturais terrestres. Já a série do satélite
NOAA registram os fenômenos atmosféricos meteorológicos, assim como influenciam
diretamente no estudo de fenômenos climáticos. E também são muito utilizados como
recurso do SR.

14
INTRODUÇÃO AO SENSORIAMENTO REMOTO │ UNIDADE I

Vamos a seguir, conhecer alguns destes satélites.

Série Landsat

Este sistema de satélite LANDSAT ou (LAND SATellite) foi desenvolvido pela NASA e
entrou em operação em 1972. É um sistema que produz imagens sinópticas da superfície
terrestre de média resolução.

Inicialmente, estes satélites tinham sensores com capacidade de capturar imagens


digitais separadas na forma de bandas espectrais, em que cada imagem podia cobrir
uma área de 185 km por 185 km a cada 18 dias.

A tecnologia deste equipamento contava com um sensor Multispectral Scanner System


(MSS). O sistema desses satélites passou por diversos avanços sendo constantemente
inovado, e hoje conta com imagens capturadas em sete (7) bandas espectrais.

O satélite Landsat-7, lançado pelos EUA em 1999, possui sensores ETM (Enhanced
Tematic Mapper) e a nível PAN (Pancromático). Este último significa que o satélite tem
uma banda mais larga com faixas espectrais mais estreitas.

Por este motivo, este sensor obtém uma melhor definição das informações em imagens,
por gerar uma grande quantidade de energia e maior intensidade gerada pela banda
pancromática ao satélite, a qual chega com uma resolução de 15 m.

Estes satélites orbitam a uma altura de 705 km, com órbita heliossíncrona e geocêntrica
circular, quase polar, ou seja, eles sempre cruzam um paralelo terrestre no mesmo
horário em um período diurno, e chegam à linha do equador ás 9h50.

Até o ano de 2004, a série de satélite que mais produziu e forneceu dados espectrais e
imagens de satélites foi a série e satélites Landsat, contribuindo de forma significativa
os mais diversos estudos sobre as fenômenos e feições da superfície terrestre.

Atualmente, o programa conta com o Landsat 8, o qual como o nome já diz, é o oitavo
de sua série bem como é o sétimo satélite a obter sucesso ao alcançar a órbita da Terra.

O lançamento do Landsat 8 foi em 11 de fevereiro de 2013 e é responsável pelo envio de


imagens com maior riqueza de detalhamento. Em comparação com o satélite anterior
(o Landsat 7), além de fornecer imagens com maior riqueza de detalhes, também
fotografa a superfície da Terra duas vez mais que o anterior.

Série SPOT

A série do sistema de satélites SPOT (Systeme Probatoire d’Observation da la Terre)


foi produzido e pensado pelo governo francês no ano de 1978, em parceria da Suécia e
15
UNIDADE I │ INTRODUÇÃO AO SENSORIAMENTO REMOTO

da Bélgica. A série foi gerenciada por uma entidade que desenvolveu o programa e as
operações dos satélites, a saber, o Centro Nacional de Estudos Espaciais (CNES).

»» SPOT-1 – lançado em 1986.

»» SPOT-2 – lançado em 1989.

»» SPOT-3 – lançado em 1993.

»» SPOT-4 – lançado em 1998.

»» SPOT-5 – lançado em 2002.

»» SPOT-6 – lançado em 2012.

Os três primeiros satélites da série possuem características semelhantes. Já o


satélite SPOT-4, trouxe uma inovação, compondo-se de mais um sensor servindo
de monitoramento das áreas de vegetação, e conta com mais um canal no modo
multi-spectral (XS).

As características fundamentais do sistema SPOT são:

»» Os satélites orbitam a uma altitude de 832 km.

»» Velocidade: 13,3 km/s.

»» Área de cobertura terrestre por cada cena 60km X 60km.

»» Possui peso estimado em 1.870 kg.

»» Tem dimensões de 2m X 2m por 4,5m.

»» A taxa de transmissão de dados é de 59 Mbits/s.

»» Realiza passagem diurna sempre em órbita descendente às 10h30.

Este satélite utiliza um sistema sensor em HRVIR (High Resolution Visible and
Infra-Red), o qual opera em três faixas espectrais respectivamente (visível,
infravermelho próximo e infravermelho médio), com mais uma faixa pancromática
na região do visível.

A resolução desse sistema é de 20 metros nas imagens espectrais e 10 metros nas


imagens geradas na faixa pancromática. Esta resolução de 10 metros possibilita um
mapeamento na escala de 1:25.000, e também o sistema possui um sensor que captura
áreas de vegetação com resolução de 1.165m.
16
INTRODUÇÃO AO SENSORIAMENTO REMOTO │ UNIDADE I

Série NOAA

A série de satélites NOAA é gerenciada pela National Oceanic and Atmospheric


Administration – NOAA, por meio da National Aeronautics and Space Administration
– NASA responsável por desenvolver a série.

Trata-se de satélites que operam a uma altitude de 840 km coletando dados atmosféricos
globais, atuando mais especificamente nas regiões polares do planeta. Eles também
trabalham em órbita heliossíncrona e circular, entre um ângulo aproximado de 9º do
eixo terrestre e o período orbital de duração de 102 minutos.

O programa NOAA foi desenvolvido pela NASA em parceria com o Departamento


de Defesa dos Estados Unidos na perspectiva de se criar um sistema de satélites que
capturasse dados atmosféricos meteorológicos. O NOAA era chamado incialmente de
TIROS (Television and Infrared Observation Satellite) sendo lançados 10 satélites desta
série entre os anos 1960 e 1965.

A série destes satélites fez tanto sucesso na aquisição de dados, demonstrando sua inteira
habilidade em coletar informações referentes aos fenômenos atmosféricos ocorridos
na atmosfera terrestre, que levou a uma rápida evolução, agora, demonstrando o
monitoramento não só da atmosfera, mas também dos continentes e os oceanos.

Assim, foi lançada em 23 de janeiro de 1970 a segunda geração desses satélites, o


ITOS-1 “Improved TIROS Operational System”. Este satélite tinha a bordo um poderoso
radiômetro que operava na faixa do infravermelho fazendo varreduras nas áreas
terrestres durante o dia e a noite, transmitindo os dados em tempo real, armazenando-os
a cada 12 horas para depois transmiti-los para as estações geoespaciais terrestres.

Outro satélite ITOS foi lançado no dia 11 de dezembro de 1970. Este satélite passou a
se chamar NOAA-1, pelo fato de ser agora administrado pela National Oceanic and
Atmospheric Administration – NOAA.

O programa NOAA continuou em operação até que, em 1999, entrava para a lista de
satélite da série, os satélites NOAA-14 e NOAA-15 com novas melhorias e avanços em
seus sistemas sensores. Agora, os satélites possuíam sensores com o sistema Advance
Very High Resolution Radiometer (AVHRR). Este sistema permite o fornecimento de
imagens digitais na região do visível e na região do infravermelho durante o dia e a noite.

Os sensores do NOAA assim como o sensor AVHRR acoplado na série, determina o


estudo relacionado a:

»» Estudo da cobertura vegetal dos continentes.


17
UNIDADE I │ INTRODUÇÃO AO SENSORIAMENTO REMOTO

»» Estudo relacionado à separação terra-água.

»» Estudo da distribuição de nuvens na atmosfera.

»» O processo de formação de tempestades.

»» Observação dos oceanos.

»» Quantidade e conteúdo de ozônio das camadas atmosféricas.

»» Avaliação e quantificação da extensão da cobertura de neve e gelo.

»» Estudo e avaliação das temperaturas médias superficiais dos mares e


oceanos.

»» Estudo de medição do fluxo de partículas emitidas pelo Sol e sua incidência


na Terra.

»» Levantamento de dados do perfil vertical da temperatura atmosférica e


da quantidade de vapor de água contidos na atmosfera.

Um breve resumo dos principais eventos da


evolução do SR

Listamos agora os principais eventos ocorridos na história devido aos processos evolutivos
do SR:

»» 1672 – surgimento da teoria da luz, desenvolvida por Isaac Newton.


Essa teoria se refere à projeção da luz num prisma, em que a partir da
entrada da luz branca (luz solar) num dos lados do prisma, no lado oposto
a projeção da luz branca de algum modo gera todas as outras cores que
variam do vermelho ao violeta.

»» 1822 – utilização de uma câmara primitiva, a Niepa, com a primeira


geração de imagem fotográfica utilizando uma câmara primitiva e um
papel que possui sensibilidade à luz.

»» 1859 – utilização de câmaras fotográficas fixadas em balões.

»» 1903 – utilização de fotografias ou imagens aéreas utilizadas para fins


cartográficos.

»» 1909 – tomadas e registro de fotografias ou imagens aéreas por aviões.

»» 1930 – época em que foram desenvolvidas coberturas sistemáticas da


superfície terrestre para fins de monitoramento e recursos naturais.
18
INTRODUÇÃO AO SENSORIAMENTO REMOTO │ UNIDADE I

»» 1939 – desenvolvimento e evolução de equipamentos ópticos com


pesquisas de substâncias fotossensíveis.

»» 1940 – desenvolvimento de equipamentos com sensores radiométricos


sensíveis à radiação infravermelha. A época foi marcada também pela
utilização de filmes na II Grande Guerra no espectro infravermelho, como
estratégia de camuflagem.

»» 1944 – são registrados os primeiros experimentos na utilização de


câmeras multiespectrais.

»» 1954 – marcado pelo desenvolvimento e pela evolução de radiômetros


nas faixas espectrais das micro-ondas

»» 1961 – marcado pelo desenvolvimento de processamentos ópticos e


digitais e o surgimento dos primeiros radares com visada lateral.

»» 1962 – desenvolvimentos de veículos espaciais tripulados e não tripulados


e lançamento de satélites meteorológicos. Primeira fotografia orbital
MA-4-Mercury.

»» 1972 – fotografias digitais orbitais capturadas pelo programa Gemini;


surgimento de outros programas espaciais como objetivo na obtenção
de dados e informações de recursos naturais terrestres: SEASAT, SPOT,
ERS e LANDSAT.

»» 1983 – lançamento do Landsat-4, SIR-A, SIR-B e MOMSl.

»» 1991 – lançamento de ERS-1.

Resolução das imagens em sensoriamento remoto

O sensoriamento remoto constitui-se de uma diversidade de satélites, os quais oferecem


imagens com a finalidade de atender as necessidades da demanda de usuários.
Dependendo da necessidade do usuário, por exemplo, o de uma observação detalhada
de objetos de uma área.

Para isso, existem sensores que captam áreas inferiores a 1 metro com meios de
visualização dos objetos em 3D que são muito utilizados para levantamento de dados
cadastrais e muito eficientes na cartografia digital.

Os usuários com necessidade de se obter estudos sobre a evolução da paisagem e


fenômenos ocorridos ao longo do tempo podem utilizar sensores que tenham alta taxa
de visualização da área.

19
UNIDADE I │ INTRODUÇÃO AO SENSORIAMENTO REMOTO

Já os usuários que trabalham na obtenção de dados de recursos minerais como as


rochas, teor de ferro, dentre outros, podem utilizar satélites com sensores que operam
em várias bandas espectrais.

Ao se fazer estudos com aplicações em SR, deve-se primeiramente delimitar questões


como, qual a melhor resolução que se pode utilizar para tais estudos, e qual a melhor
escala que represente os objetos que serão representados nas imagens digitais.
Essas questões são fundamentais para que se possa realizar um estudo bem fundamentado
da área de interesse.

Ocorre que nem sempre há respostas para simples indagações. O que se pode obter como
resposta é a limitação que um sensor orbital possui para transmitir grandes volumes
de informações com dados enviados às estações receptoras terrestres, onde recebem
imagens correspondentes a grandes áreas imageadas pelos satélites como Landsat e
CBERS, que recobrem áreas com dezenas e até centenas de quilômetros quadrados.

Essas imagens estão associadas a resoluções sensoriais de pequenas quantidades 10,


20 e até 30 metros. Geralmente, são muito procuradas para estudos na escala regional.
Já, as imagens com varredura de pequenas áreas, como as dos satélites Ikonos e
Orbview, que trabalham com uma resolução espacial grande de 1 metro, geralmente
são utilizadas em estudos na escala local, que demandam da visualização de detalhes.

A identificação dos objetos em imagens de satélite é determinada por quatro tipos de


resolução e formas de medição, são elas:

1. Resolução espacial, medida pela área do campo de visada do sensor.

2. Resolução espectral, medida pelo comprimento de ondas dos feixes


espectrais.

3. Resolução radiométrica, medida por vários valores numéricos emitidos


devido à radiância dos alvos.

4. Resolução temporal, medida pela data de captura da imagem.

Desta forma, as resoluções atuam em um processo conjunto de interação constante entre


os alvos e os tipos de resoluções tornando fácil de a identificação de objetos nas imagens.

Resolução espacial

A resolução espacial é um parâmetro muito importante de um sensor, pois é ela que


determina a característica dos alvos representados de uma imagem pelo menor tamanho

20
INTRODUÇÃO AO SENSORIAMENTO REMOTO │ UNIDADE I

do objeto possível que se possa identificar. Desta maneira, a resolução espacial detecta
um objeto de acordo com a radiometria do sensor.

Em áreas de coberturas de terrenos naturais, os alvos a serem imageados não


apresentam muitas diferenças, mostrando pouca variabilidade, o que não exige para
sua identificação, de altas resoluções espaciais. Diferentemente de uma área urbana,
com uma vasta variabilidade de tamanhos e tipos de objetos, a exigência seria um
sensor que pudesse capturar dados em poucos metros.

Pode-se dizer que um dado obtido de um terreno é determinado pela resolução de um


sensor. Ou seja, as imagens de um sensor são caracterizadas pela radiometria, faixa
espectral e tamanho do pixel.

A resolução espacial depende de fatores como altura e posicionamento do sensor em


relação ao objeto alvo. Por isso, dependendo da posição do sensor em relação à área
de estudo, quanto menor for a resolução de um sensor, melhor será a identificação de
alvos próximos.

Figura 2. Imagens com diferente resolução espacial, em que a figura “a” é uma imagem Landsat com uma
resolução espacial de 30 metros e a figura “b” Ikonos com resolução espacial de 1 metro.

Fonte: Menezes (2012).

Resolução espectral

Este tipo de resolução se refere à largura espectral que um sensor trabalha. Assim, este
sensor define o período de intervalo espectral em que são realizadas as medidas em
suas bandas espectrais. Quanto mais bandas esse sensor tiver, mais será a facilidade em
obter informação de alta resolução.

A resolução espectral consiste, portanto, na escolha das bandas multiespectrais e dos


tipos de ondas a serem empregadas, levando em consideração as especificidades que
são suportadas pelo equipamento utilizado.

21
UNIDADE I │ INTRODUÇÃO AO SENSORIAMENTO REMOTO

Como exemplos de capacidade de suporte de equipamentos sensores que podemos citar


são o Cbers-2 e o Landsat TM5 que possuem 5 e 7 bandas respectivamente. A figura
abaixo apresenta duas imagens com dois diferentes tipos de bandas utilizadas, a bando
do Visível e a do Infravermelho.

Figura 3. Imagens com diferentes resoluções espectral, que conforme as bandas do espectro eletromagnéticos a
figura “a” está na banda do visível e a figura “b” está na banda do infravermelho.

a b
Fonte: Menezes (2012).

A obtenção de imagens em várias bandas espectrais é a propriedade mais importante


dos sensores remotos imageadores. O termo referente à resolução espacial envolve
alguns parâmetros de medidas como: o número de faixas espectrais em que o sensor
opera, assim como a largura e o comprimento das ondas capturadas pelo sensor.

Devido às diferenças encontradas na reflexão dos alvos da superfície terrestre é que


se utilizam essas poderosas ferramentas de monitoramento de alvos remotamente,
permitindo distinguir um objeto, ou elemento de outro em determinadas faixas de
comprimentos de onda.

As rochas são um verdadeiro exemplo das diferenças espectrais dos elementos terrestres.
Elas se evidenciam na faixa espectral de comprimento de onda na região do infravermelho
próximo e nos comprimentos de ondas curtas. Cada material ou objeto representado
absorve diferentes quantidades de energia eletromagnética. Os objetos com o intuito de
serem representados devem estar em plena concordância às larguras das bandas espectrais.

As feições como solos, vegetação, rocha e água são consideradas como identificadores
de composições na ordem de 10nm a 20nm. Sensores que possuem bandas muito largas
que vão além de 20nm não são capazes de diferenciar um objeto do outro devido sua
composição, sendo os objetos detectados em função de sua resolução espacial.

Considerando o poder de imageamento da resolução espectral, os sensores espectrais


parecem ter uma resolução muito melhorada. Neste sentido, objetos menores que

22
INTRODUÇÃO AO SENSORIAMENTO REMOTO │ UNIDADE I

a resolução tendem a contrastar com objetos próximos a eles, como por exemplo, a
identificação de estradas em imagens de satélites.

Imaginemos uma imagem com resolução de 30 metros em que as estradas possuem


larguras inferiores a 10 metros. Por ter pixels de 30 por 30 metros, haverá uma integração
das estradas com a vegetação ali próxima, formando pixels de mistura, em que definirão
um valor aleatório de reflexão das estradas. Deste modo, os valores representados não
se designam puros e nem corresponde ao valor da vegetação.

Na banda da região do espectro visível, a estrada terá um alto poder de reflexão,


superando o valor de reflexão da vegetação, onde o pixel de mistura terá um valor de
refletância mais aproximado ao da estrada do que da vegetação.

Este processo se deve aos (pixels mistura) entre as estradas e a vegetação, os quais obtêm
níveis de cinza mais claro estando juntos que os pixels puros havendo apenas vegetação. Este
efeito apresenta contrastes bem melhores em imagens com resolução espacial espectral.

Na resolução espacial, quando o imageamento for realizado na banda espectral do


infravermelho próximo, a estrada será dificilmente identificada, isto porque a estrada
e a vegetação terão valores espectrais muito próximos um do outro, sem um contraste
específico de cada elemento.

Sabemos, no entanto, que não é possível aumentar qualquer parâmetro de medição da


resolução espectral do sensor como a largura, o número e a posição das bandas ao longo
da incidência do espectro eletromagnético.

Pois um aumento significativo desses parâmetros implicaria num maior consumo de


energia por um sensor espectral para melhor detalhamento dos dados, ocasionando
na exigência de se ter satélites mais bem equipados e com inestimável potência de
transmissão de dados.

Visando estas limitações, sensores de resolução espacial com grandes volumes de


informações possuem poucas bandas que são ligadas as faixas espectrais da região do
visível e do infravermelho, por este motivo, são consideradas sensores de alta e baixa
resolução espacial.

Em contraste, um sensor com baixa resolução, como o caso do ASTER, possui 14 bandas,
ou seja, um maior número de bandas para melhor definição das imagens.

Resolução radiométrica
Este tipo de resolução consiste no nível da intensidade de energia recebida, a qual é
medida pelos detectores de radiância de uma determinada área de cada pixel.

23
UNIDADE I │ INTRODUÇÃO AO SENSORIAMENTO REMOTO

Quanto maior for a capacidade do detector em captar as diferenças das intensidades


radiantes, maior será a resolução radiométrica. Essas diferenças de intensidade estão
diretamente associadas aos níveis de cinza de uma imagem conforme a figura abaixo.

Figura 4. Imagens com níveis de resolução radiométrica diferentes.

Fonte: Menezes (2012).

Notamos que a imagem 2 bits apresenta uma definição de informação em dois níveis, o
preto e o branco. Já a imagem de 4 bits apresenta uma definição com mais quantidades
de níveis de informação, tornando-a mais rica em detalhes. O que possibilita diferenciar
os elementos existentes da imagem como a identificação do corpo de água.

A medida da radiância operada pelos detectores de cada pixel é chamada de resolução


radiométrica. Deste modo, quanto maior a resolução radiométrica e um sensor, maior
será a capacidade dos detectores para medir as diferenças dos níveis de radiância.
Assim, essa capacidade aumentada implica no volume de níveis de radiância que o
detector capta.

Devido à intensidade da radiação como forma de entrada em um sensor, após essa energia
for processada, como resposta, a forma de saída será convertida em um número digital.
A esse processo, dá-se o nome de quantização que é a medida da resolução radiométrica.

Na prática, a quantização da energia é medida pelos detectores sensoriais a partir do


intervalo do número de valores utilizados para representar a radiância.

Grande parte dos sensores espaciais opera com bandas multiespectrais, possuem resolução
de 10 até 30 metros. Esses sensores trabalham com resoluções de 8bits de informação,
ou seja, eles são capazes de “enxergar” até 256 níveis de valores radiométricos por cada
banda espectral.

Sensores de alta resolução, que trabalham áreas de tamanho de 1 metro por pixel,
possuem resoluções radiométricas de 10 ou 11bits, o equivalente a 1.024 ou 2.048 valores
radiométricos. Quanto mais bits tiverem em uma imagem de satélite, a sensibilidade e
riqueza de informações serão maiores.

24
INTRODUÇÃO AO SENSORIAMENTO REMOTO │ UNIDADE I

Resolução temporal

Consiste na passagem de um sensor em intervalos sucessivos de tempo sempre na


mesma área imageada. Este processo está relacionado ao ângulo de visado do sensor
e pelas características das plataformas receptoras de dados como a velocidade, raio de
inclinação e altura.

A resolução temporal é de grande importância quando se trata de estudos com objetivo


de analisar as mudanças ocorridas ao longo do tempo em determinadas áreas.

Neste sentido, podemos definir resolução temporal como sendo a medida entre um
intervalo e outro, podendo durar horas ou até dias em que um sensor faz o registro de
informações de um determinado ponto da superfície terrestre.

Estudos como a identificação do desmatamento de uma área ou região e evolução da


mancha urbana de um determinado local só é possível devido aos avanços tecnológicos
no campo do sensoriamento remoto, mais especificamente, dos sistemas sensores.
Alguns satélites possuem esses sistemas, vejamos alguns:

»» GeoEye – este satélite opera em órbita circular, heliossíncrona com


eixo de inclinação de 98,1º. Possui um período orbital de 98,46 minutos,
ou seja, demora 3 dias para passar novamente no mesmo local, com
imageamento no horário de Amazonas que corresponde às 10h30min
a uma altitude de 681 km. O GeoEye trabalha com uma resolução
radiométrica de 11bits por pixel.

»» Landsat – o satélite da série Landsat observa a mesma área de passagem


a cada 16 dias. Estes satélites possuem sete bandas, e cada uma trabalha
uma faixa do espectro eletromagnético.

»» Spot – esta série trabalha com resolução radiométrica de 12bits por pixel.
A largura da faixa por ele imageada corresponde a 60 km, com cenas de
60,0 X 60,0 km. Opera nas bandas em Pancromático e Multiespectral
nas cores, vermelho, azul, verde e infravermelho próximo. Leva 26 dias
para imagear a área visada.

»» Cbers – este satélite registra dados da superfície terrestre a cada 26 dias.


Compõe-se de 4 bandas espectrais com câmera Pancrómática e câmera
multiespectral e termal.

»» WorldView – possui resolução espacial de 50 cm, com capacidade de


coleta de imagens em curto espaço temporal de 1,1 a 3,5 dias. Este satélite

25
UNIDADE I │ INTRODUÇÃO AO SENSORIAMENTO REMOTO

compõe-se de 8 bandas multiespectrais nas cores verde, vermelho, azul


e infravermelho.

»» Quickbird – satélite de alta resolução com bandas pancromática e


multiespectrais capazes de adquirir imagens de 23 metros horizontais.
Com órbita heliossíncrona opera a uma altitude de 450 km.

»» Ikonos – com gerador de imagens de alta resolução de 1 metro, este


satélite possui resolução radiométrica de 11bits por pixel com uma
frequência de revisita da área imageada a cada 3 dias.

»» RapidEye – é uma série de 5 satélites idênticos, lançados em 2008 num


único foguete. Estes satélites realizam a revisita da área de 24 horas até 5
dias. Operam em uma faixa de largura de 77 km e possuem uma inestimável
capacidade de coletar cerca de 4.000.000 km² de dados por dia.

Como vimos anteriormente, este tipo de resolução é caracterizada principalmente


pelo seu plano de órbita, o qual é fixo e ortogonalmente ao sentido ao movimento de
rotação da Terra. Desta maneira, o satélite refaz seu percurso sobre o mesmo ponto da
superfície terrestre e sempre no mesmo horário.

Geralmente, satélites com essa resolução possuem uma inclinação à linha do equador
de 97º a 98º, com uma altitude que varia entre 550 a 900 km, sendo que o tempo
de órbita pode durar até 90 minutos. Estes princípios pode se considerar o mesmo
para qualquer satélite com esta resolução, o que irá distinguir um do outro é a faixa do
imageamento, que pode ser de diferentes larguras para todos os satélites.

Assim, podemos concluir que a resolução temporal é de fundamental importância,


pois por meio dela pode-se acompanhar a evolução de diversos eventos e fenômenos
naturais dinâmicos como o desmatamento, desastres naturais, evolução da paisagem e
outras modificações ocorridas no planeta.

26
PRINCÍPIOS BÁSICOS
EM SENSORIAMENTO Unidade II
REMOTO
Figura 5.

Fonte: <www.andersonmedeiros.com>. Acesso em: 16/11/2016.

Capítulo 1
Tipos de sensores

Os sistemas sensores podem ser classificados de duas formas: sensores ativos ou


passivos.

Os sensores ativos possuem uma fonte própria de energia, a radiação eletromagnética


– REM artificial. Desta maneira, não necessitam de uma fonte de energia externa,
permitindo que ondas eletromagnéticas sejam emitidas diretamente para objetos alvos
na superfície terrestre.

Estes objetos são imageados pelos sensores que detectam parte desta energia, a qual
posteriormente é refletida novamente na direção dos sensores. Como exemplos destes
sensores, podemos citar o Radar, por sua total eficácia na emissão e recebimento de
ondas de rádio capazes de identificar os mais diversos objetos na superfície terrestre.

Outro exemplo são as câmeras fotográficas com flash. Os primeiros equipamentos


desenvolvidos e utilizados como um sistema sensor foram os sistemas fotográficos.
A figura 6 mostra o funcionamento de um sensor ativo emitindo e captando sua própria
energia, a qual está acoplado em um satélite.
27
UNIDADE II │ PRINCÍPIOS BÁSICOS EM SENSORIAMENTO REMOTO

Figura 6. Sensor ativo.

Fonte: IBGE (2012).

Os sensores passivos não possuem uma fonte própria de energia, por isso dependem de
uma fonte de energia externa, como a energia solar.

Estes sensores captam a energia eletromagnética que é emitida pelo sol em direção
à superfície terrestre, onde os objetos da superfície absorvem essa energia e refletem
novamente para o sensor. A luz solar é a principal fonte de radiação eletromagnética
dos sensores passivos.

O calor emitido da superfície terrestre também é captado pelos sensores passivos. Isso se
deve ao fato de que apenas uma parte da energia emitida pelo sol é absorvida pela
superfície terrestre sendo que a outra parte é refletida para o espaço.

A figura 7 representa o funcionamento de um sensor passivo acoplado a um satélite, em


que o sensor capta a energia solar absorvida e refletida pela superfície terrestre.

Figura 7. Sensor passivo.

Fonte: IBGE (2010).

28
PRINCÍPIOS BÁSICOS EM SENSORIAMENTO REMOTO │ UNIDADE II

Além da classificação por fonte de energia, sensor ativo e passivo, podemos classificar os
sensores quanto à transformação sofrida pela radiação, são eles: sensores imageadores
e sensores não imageadores.

Os sensores imageadores são os que fornecem imagens de cada parte da superfície


observada. Estes sensores funcionam como câmeras fotográficas, coletando informações
e representando-as na forma de uma imagem.

A presença de nuvens muitas vezes dificulta a obtenção de informações da superfície


terrestre, que o sensor capta apenas a energia radiante refletida da nuvem.

Esses sensores remotos possuem um sistema de varredura que capturam informações


da superfície terrestre em diferentes faixas espectrais, cuja largura da faixa depende do
ângulo de visada de cada sensor.

Como exemplo desses tipos de sensores temos o sensor Multiespectral Thematic Mapper
(TM) do satélite LANDSAT, que cobre uma faixa de 185 km, já o sensor AVHRR do
satélite NOAA cobre uma faixa de 2700 km, e o sensor Charge Coupled Device (CCD)
do satélite SPOT que cobre uma faixa de 60 km.

Os sensores não imageadores não fornecem imagens como forma de produtos, neste
caso os sensores geram os dados coletados na forma de gráficos ou tabelas, como é o
caso dos radiômetros.

Desta forma, o sensor emite uma energia eletromagnética na direção do alvo visado
e recebe essa energia com variações conforme a assinatura espectral de cada alvo que
a refletiu.

A assinatura espectral é uma característica única que distingue cada objeto/alvo da


superfície terrestre, com diferentes níveis de intensidade e características físicas e
químicas específicas, sendo emitidas ao refletir a energia radiante para um determinado
sensor.

Radiação eletromagnética
Para entender o que é a radiação eletromagnética (REM), vamos primeiramente analisar
o comportamento em sua natureza: onda e energia. É fácil entender, basta lembrar que
a luz se propaga pelo espaço vazio, onde é ao mesmo tempo uma forma de onda e uma
forma de energia com diversos comprimentos e frequências.

Tais ondas possuem um campo elétrico e outro magnético que se propagam através
de faixas contínuas na direção da onda. Por exemplo, uma onda eletromagnética

29
UNIDADE II │ PRINCÍPIOS BÁSICOS EM SENSORIAMENTO REMOTO

é composta de dois campos, um elétrico e outro magnético, dinâmicos entre si, que
vibram perpendicularmente na direção da propagação.

As ondas eletromagnéticas ou REM não apenas captam informações das principais


características das feições terrestres, mas também levam estas informações até os
satélites. A completa faixa de variados comprimentos de onda e frequência é denominada
de Espectro Eletromagnético.

Na figura 8, conforme os níveis de onda e frequência, podemos observar, que o espectro


eletromagnético está subdividido em Bandas ou Faixas Espectrais, que representam
regiões com características únicas pertinentes a processos físicos geradores de energia em
cada faixa, as quais são classificadas respectivamente como ondas de rádio, micro-ondas,
infravermelho, ultravioleta, raios-X, radiação Gama e radiação Cósmica.

Figura 8. Escala do espectro eletromagnético.

Fonte: <http://www.fisica.net/einsteinjr/9/ondas_eletromagneticas.html>. Acesso em: 16/11/2016.

Faixas ou bandas do espectro eletromagnético, ilustrado na figura 8, se caracterizam da


seguinte maneira:

»» Ondas de rádio: as ondas nessa faixa possuem baixa frequência, e com


grande comprimento variando entre 30 cm a centenas de quilômetros,
é bastante utilizada para fins comunicação à longa distância, rádio, TV,
radares, dentre outros.

30
PRINCÍPIOS BÁSICOS EM SENSORIAMENTO REMOTO │ UNIDADE II

»» Micro-ondas: esse tipo de onda possui comprimentos entre 30 cm


e 1 mm nessa faixa espectral, construindo feixes de radiação muito
bem concentrados, como por exemplo, os radares de localização e
monitoramento de objetos. A radiação em micro-ondas é muito utilizada
na área de sensoriamento remoto por sofrerem pouca interferência pela
atmosfera e pelas nuvens.

»» Infravermelho: esta faixa se estende de 0,7 a 1000μm e é de


grande importância para o sensoriamento remoto. Essa radiação tem
características peculiares como a fácil absorção da energia pela maioria
dos objetos, surtindo um efeito de aquecimento neles. Devido este
aquecimento, a energia produzida por estes objetos se situa principalmente
nesta faixa espectral, tornando-a diretamente associada ao calor. Vale
lembrar que qualquer corpo ou objeto com temperatura acima de -273ºC
emite radiação infravermelha.

»» Ultravioleta (UV): é produzida pelo sol, sendo emitida na faixa de


0,003μm até 0,38μm. Essa energia não é muito utilizada em trabalhos
de sensoriamento remoto, porém, é bastante conhecida por ser nociva a
saúde humana.

»» Raios-X: essas ondas são geradas principalmente pelo freamento de


elétrons de alta energia eletromagnética. São altamente penetrantes, por
isso os raios-X são muito usados na área da saúde assim como na área
industrial, scanners de aeroportos dentre outros setores.

»» Raios-Gama: as radiações gamas são classificadas como uma das mais


penetrantes das emissões radioativas, por possuir alta frequência de
ondas em termos de comprimento, e só não é menor que as ondas dos
raios Cósmicos. É comumente utilizada em tratamentos na área da saúde
como a prevenção contra o câncer.

»» Radiação Cósmica: esse tipo de radiação está localizado na faixa


superior, onde se destaca dentre todo o espectro eletromagnético por
possuir a maior frequência de todas as energias e o menor comprimento
de onda. Desta maneira, essa radiação possui o maior poder de penetração
e logo é absorvida pela atmosfera.

Conceitos importantes em sensoriamento remoto


»» Radiação do corpo negro: um corpo negro é um corpo hipotético que
emite ou absorve energia eletromagnética em todos os comprimentos de
31
UNIDADE II │ PRINCÍPIOS BÁSICOS EM SENSORIAMENTO REMOTO

onda. Essa radiação é explicada tento como base a máxima emissão de


ondas, por uma dada temperatura de um corpo em que toda radiação é
absorvida em todos os comprimentos de onda e em todas as direções, sendo
medida a máxima radiação possível para dada temperatura do corpo.

Desta forma, entendemos que há radiação eletromagnética num corpo negro


quando sua temperatura está acima de zero grau Kelvin ou (0º K = -273ºC)
onde, para cada comprimento de onda, a quantidade de energia radiada
atinge a um valor máximo a uma dada temperatura. Esse comprimento de
onda pode ser explicado pela Lei do Deslocamento de Wien.

»» Teoria quântica: essa teoria foi iniciada pelo trabalho de Max


Planck na emissão e absorção de luz e explica a interação da Radiação
Eletromagnética (REM) com a matéria. Segundo Planck, esta energia é
composta por unidades chamadas de Fótons ou “Quanta”.

»» Planck desenvolveu uma equação que explica o efeito fotoelétrico,


onde o impacto dos fótons sobre uma determinada superfície metálica
causa imediatamente uma emissão de elétrons. Desta maneira, Planck
descobriu que a luz é absorvida e posteriormente refletida através de
unidades chamadas de Quanta ou Fótons. Portanto, o impacto do Quanta
sobre uma superfície metálica provoca e emissão de elétrons.

»» Radiação Eletromagnética (REM): a radiação eletromagnética


corresponde a toda forma de energia que interage com campos elétrico e
magnético e se propaga no vácuo a velocidade da luz com 299.792 km por
segundo na forma de ondas.

Essa energia pode ser gerada por meio de processos nucleares, como (fusão
ou fissão), ou bombardeamento provocado por outra radiação. Sua interação
com o meio físico pode ser entendida por dois modelos: o modelo corpuscular
(ou quântico) e o modelo ondulatório.

»» Reações termonucleares: estas reações fornece energia para as


estrelas, incluindo o sol, na forma de radiação eletromagnética. Possui
ondas formadas por diferentes frequências e comprimentos, numa larga
faixa do espectro eletromagnético.

»» Teoria ondulatória: essa teoria explica como é propagada a radiação


eletromagnética através da oscilação da carga elétrica de ondas na velocidade
da luz. Segundo a teoria, essas ondas possuem um circuito oscilador, ou seja,
pelo movimento de um condutor dentro de um campo magnético.

32
PRINCÍPIOS BÁSICOS EM SENSORIAMENTO REMOTO │ UNIDADE II

Percorrem um trajeto senoidal emitindo energia por meio de um campo


elétrico (E) e um campo magnético (M), ortogonalmente entre si, agindo
de maneira harmônica.

»» Fluxo radiante: é a quantidade de radiação solar, ou fótons, que chega


a superfície terrestre ou, ainda, a quantidade de energia eletromagnética
recebida, transmitida ou emitida por unidade de tempo. Essa razão é
medida em watts.

»» Irradiância: é uma determinada quantidade de fluxo de radiação


medido por unidade de área num tempo especificado, que pode ser uma
hora ou um dia, e é dada em Watt hora por metro quadrado (Wh/m²).

»» Corpo negro: em física, corpo negro é conhecido como um corpo


hipotético que absorve toda energia eletromagnética que sobre ele incide
onde nenhuma luz o atravessa e nem se reflete.

»» Leis de Stefan – Boltzmann: define o fluxo da energia emitida (E), de


um corpo negro em unidades de tempo watts/cm², pela temperatura (T)
expressa em Kelvin (K).

Comportamento espectral dos corpos


O termo comportamento espectral dos corpos ou de alvos é atribuído por diversos
profissionais que fazem uso do sensoriamento remoto no estudo dos comportamentos
dos recursos naturais como solos, minerais, rochas, vegetação, água, dentre outros.

Os corpos possuem propriedades distintas e dependem da aparência física como volume,


forma e estrutura da superfície e do ângulo que é observado pelo sensor. As principais
propriedades dos corpos são: temperatura (coeficiente de absorção) e coeficientes
de emissividade, transmissividade e refletividade. Já as propriedades da energia dos
corpos são: quantidade e qualidade do comprimento de onda.

A determinação de quanto e como um objeto reflete de REM pode ser realizado em


diversas formas. Em primeiro lugar, estão incluídos os níveis de aquisição de dados,
que podem ser de campo, aéreo, orbital e de laboratório.

Em cada nível deste, podem ser adotadas formas, chamadas de geometrias de iluminação
que se refere ao posicionamento espacial da fonte de REM em relação ao objeto alvo,
e a forma de visada, a qual se refere ao posicionamento do sensor. São os níveis e as
formas que influenciam nas caracterizações dos resultados e dos produtos de cada alvo
gerando uma complexidade de informações.
33
UNIDADE II │ PRINCÍPIOS BÁSICOS EM SENSORIAMENTO REMOTO

Esta complexidade entre as interações das propriedades espectrais dos alvos é


aumentada quando elas mudam com o decorrer do tempo. Isto equivale dizer que se
trata de organismos vivos que apresentam diferentes estágios de desenvolvimento e
crescimento, modificando em suas aparências físicas e também em sua composição
material.

Objetos inanimados, por exemplo, têm propriedades espectrais em níveis e formas


estáveis, porém, basta uma simples chuva para alterá-las. Já os organismos vivos se
modificam ao longo do tempo conforme vão crescendo e evoluindo.

Concluímos então que as propriedades de refletância espectral de cada corpo pode


frequentemente mudar e muitas vezes de maneiras imprevisíveis.

Propriedade espectral de objetos naturais

Conhecer o comportamento espectral dos objetos alvos da superfície da terra é de


suma importância, principalmente quando o assunto é a escolha da região ou faixa do
espectro sobre a qual se pretende adquirir e coletar dados para determinada aplicação.

É como se cada objeto possuísse uma assinatura espectral única que o diferencia de todos
os outros objetos. As características básicas que são observadas no comportamento
espectral de cada objeto podem ser analisadas da seguinte forma:

Propriedade espectral da água

A água se apresenta na natureza em três estados físicos, os quais se diferenciam em


termos de comportamento espectral. Por exemplo, o comportamento espectral da água
em sua forma líquida pura apresenta baixa refletância, menor que 10% na faixa que
varia entre 0,38 e 0,7μm e absorção máxima acima de 0,7μm.

Este comportamento é compreendido pelos processos de absorção e espalhamento de


materiais neles diluídos e em suspensão, no qual é analisada a quantidade de matéria
orgânica dissolvida na água; esse processo resulta no deslocamento da refletância
espectral para as cores verde-amarelo, enquanto que a presença de material inorgânico
em suspensão desloca a reflexão espectral em direção ao vermelho.

Desta maneira, os rios, lagos e oceanos são fáceis de serem identificados em imagens de
satélite. Geralmente, estes corpos d’água são identificados na realização de estudos de
bacias hidrográficas e também na elaboração de mapas cartográficos.

Em interpretação de imagens de satélite, os corpos d’água são utilizados como pontos


de referência permitindo localizar outros corpos e ou feições.

34
PRINCÍPIOS BÁSICOS EM SENSORIAMENTO REMOTO │ UNIDADE II

A água também é provida de pequenos comprimentos de ondas, o que permite na


interpretação de imagens, identificar poluentes nela presentes.

Outro elemento que altera o comportamento espectral da água é o plâncton e outros


tipos de organismos e vegetais que alteram sua real refletância. Assim, quando estes
vegetais e organismos estão acima da superfície da água, a reflexão é alterada em todos
os comprimentos de onda, já quando estão debaixo da superfície da água, a refletividade
da água só é alterada em seus comprimentos de ondas menores.

As águas podem ter profundidades nas imagens quando são obtidas entre 0,5 e 0,8
mm do espectro da REM, o qual é considerado o menor coeficiente de atenuação das
radiações por metro de profundidade.

Propriedades espectrais das plantas

No estudo da cobertura vegetal, são utilizadas técnicas de sensoriamento remoto abrangendo


diferentes níveis de coleta de dados, são eles: campo, laboratório, aeronave e orbital.
No nível laboratorial eventualmente são estudadas as folhas e partes de plantas ou até mesmo
arranjos de plantas, que são coletados com o intuito de se analisar dados radiométricos e de
se caracterizar fenômenos, produtos da interação entre a REM com a vegetação.

No campo, os dados podem ser coletados diretamente das folhas, ou por meio de
equipamentos específicos como plataformas fixos ou móveis e teleféricos, os quais
permitem aos pesquisadores a colocação dos sensores diretamente acima dos dosséis
das árvores.

No caso da coleta de dados por meio de aeronaves, são utilizadas máquinas fotográficas,
radiômetros e sensores, assim como no caso da coleta a nível orbital.

A vegetação possui elementos fundamentais de características físico-químicas únicas.


As propriedades das ondas eletromagnéticas espectrais das plantas dependem da:
morfologia das folhas, estado fisiológico, composição química, estrutura interna,
geometria das plantas e condições e fatores climáticos antes e durante as etapas de
crescimento e desenvolvimento das plantas.

De todos os elementos importantes da vegetação, a folha é o principal deles. As folhas por


si só absorvem, refletem e transmitem as radiações incidentes sobre elas, seguindo uma
linha de padrão único de suas células pigmentadas com soluções aquosas. Sua estrutura
é semelhante ao resto planta.

A estrutura de folha consiste de três tecidos: epiderme, mesófilo fotossintético e


tecido vascular. Cada folha é coberta por uma camada protetora de epiderme. Abaixo

35
UNIDADE II │ PRINCÍPIOS BÁSICOS EM SENSORIAMENTO REMOTO

da epiderme temos mesófilo que são formados por espaços intercelulares cheios
de ar que refletem a REM e é frequentemente subdividido em camadas de células
alongadas que formam o parênquima, tecido fundamental que constitui a maior parte
dos vegetais.

É por meio do mesófilo e suas Intercélulas cheia de ar que o CO2 alcança as células
fotossintéticas, onde o O2 é liberado através da fotossíntese e da respiração e retorna à
atmosfera.

Teoria de Willstatter e Stoll (1918)

O comportamento espectral de uma folha é dada em função de sua estrutura interna e


composição morfológica. Levando em consideração sua refletância interna, Willsattter
e Stoll (1918) desenvolveram estudos procurando explicar como se daria a refletividade
potencial na estrutura interna e na superfície das folhas.

Segundo os autores, a trajetória da radiação eletromagnética dentro das folhas se daria


por vários meios contidos nelas como a água, membranas celulares, ar etc. Desta forma,
um mesmo feixe de REM poderia atingir, por exemplo, a água dentro da folha, e depois
fazer a refração dela, e em seguida atravessar os espaços preenchidos com ar, que tem
o poder de refração igual a um.

Essa reflexão é um processo aleatório pelo qual os raios mudam continuamente de


direção dentro da folha. Pelo fato de a folha possuir um grande número de células e
paredes celulares, alguns dos raios são refletidos através da folha, enquanto outros
são refletidos de volta. A espessura e composição de cada folha são vitais para o
entendimento do caminho percorrido da REM.

Teoria de Sinclair

Segundo essa teoria, quanto maior for o número de espaços de ar existentes entre as
células de uma folha, maior será a refletividade na região do infravermelho – IV próximo
(0,7 – 1,3 mm), pois a REM incide com maior frequência nas partes da folha em que o
índice de refração é maior, passando para aquelas em que o índice de refração é menor.

A radiação eletromagnética atinge a parede celular e é espalhada, dispersada em todas


as direções na cavidade intercelular da folha.

Como exemplo desse processo espectral de absorção e refletância, temos o algodão.


Suas folhas durante seu ciclo de vida aumentam a quantidade de espaços de ar, logo, à
refletividade é aumentada também e a transmissão diminui.

36
PRINCÍPIOS BÁSICOS EM SENSORIAMENTO REMOTO │ UNIDADE II

Na faixa da região do visível – VIS, o processo de reflexão da folha é compreendido pela


clorofila e se encontra no intervalo da luz azul que compreende entre (0,4 – 0,5mm), e
na faixa na luz vermelha (0,6 – 0,7mm); ao mesmo tempo em que reflete no espectro da
luz verde entre (0,5 – 0,6mm). Essa radiação atravessa a cutícula e a epiderme, a qual é
determinada pelo vermelho e pelo azul onde são absorvidas pelos mesófilos.

São as clorofilas que regulam o comportamento espectral da vegetação, como é o caso


das clorofilas A e B, que possuem uma pigmentação significativa comparada a outros
pigmentos.

A clorofila só absorve a luz verde em pequenas quantidades, e é devido a este fator que
a refletância é maior no intervalo da luz verde, que é responsável por esta mesma cor
nas folhas, e perceptível à visão humana.

Esta figura mostra que no NIR que compreende entre (0,7 – 1,3mm), dependendo
do tipo de vegetação a radiação é refletida na proporção de 30 a 70% dos raios.
No entanto, nesse espectro os sistemas constituídos de pigmentos não conseguem
absorver os fótons, que são indispensáveis na subida acentuada de uma curva de
reflexão. O pouco de reflexão que resta é causada pela mudança no índice de refração
das células do mesófilo.

Em ondas acima de 1,3mm, a água presente nas folhas influencia diretamente na


interação com a energia incidente. Este processo acontece da seguinte maneira: a
medida que a água presente na folha aumenta, há maior absorção especificamente nas
bandas de 1,45mm e 1,96mm. Portanto, folhas que tem corpo hídrico reduzido terá
maior reflexão.

Propriedades espectrais dos solos

Os solos expostos possuem um intervalo espectral que corresponde ao azul, o qual


apresenta valores baixos de reflexão, que aumentam progressivamente em direção à
luz vermelha. Por isso, os solos puros possuem características nessas mesmas bandas
do NIR e do MIR (Mid Infrared).

Parâmetros como a cor do solo, o tipo (latossolo, litossolo, podzólico), a granulometria,


o teor de matéria orgânica nele presente, o teor de ferro, a composição mineralógica, a
textura do solo, a umidade e a rugosidade de sua superfície, influenciam diretamente
na resposta espectral do mesmo.

Vale lembrar que é necessário realizar a correlação entre os parâmetros constantes e as


possíveis variáveis na interação entre o solo e a REM.

37
UNIDADE II │ PRINCÍPIOS BÁSICOS EM SENSORIAMENTO REMOTO

Em imagens de satélites, os solos úmidos são representados por tons de cinzas mais
escuros, indicando uma refletividade menor que em solos secos. Isto se deve aos valores
baixos de reflexão de ondas em todas as direções, emitidas pelos solos úmidos devido
ao baixo índice de refração nas áreas frontais das partículas de água, enquanto que nas
áreas de solos secos a refração das ondas é maior.

Para Wittje (1979), a quantidade de água no solo é identificada pelas faixas que
compreendem entre (1,4mm e 1,9mm). As bandas de absorção de água de um solo
úmido demonstram diferentes curvas espectrais de um solo seco.

A refletância dos solos apresentam em suas curvas consideráveis contrastes entre 0,25
e 2,5 mm sendo responsáveis pelas tonalidades das imagens.

Os fatores que influenciam na refletividade dos solos são:

»» presença de minerais;

»» granulometria (tamanho dos agregados);

»» cor;

»» textura;

»» teor de óxidos de ferro;

»» teor de matéria orgânica;

»» estrutura;

»» propriedades para polarização das REM.

Composição mineral dos solos

Esse tipo de composição também afeta no comportamento espectral dos solos.


Quando há alto teor de óxido de ferro e compostos minerais opacos nos solos, a
refletância é mais baixa do que em solos com baixos teores de óxido de ferro. A melhor
região para identificação de minerais contidos em solos compreende faixas espectrais
entre 8 e 14mm, onde ocorre neste feixe do espectro a vibração essencial devido as
interações de átomos de silício e oxigênio.

Essa refletividade dos minerais a nível macromolecular é dada pela interação de


fatores como:

»» tamanho dos agregados formados pelo mineral;

»» película de água que muitas vezes recobre o agregado;


38
PRINCÍPIOS BÁSICOS EM SENSORIAMENTO REMOTO │ UNIDADE II

»» rugosidade da superfície do mineral;

»» presença de concomitantes como poeira, outros minerais etc.;

»» descontinuidades físicas entre os agregados.

Minerais como nitratos, sulfatos, carbonatos e silicatos podem ser facilmente identificados
nas curvas IV, em estado parcialmente puro. Sensores que captam a região ultravioleta
captam outros minerais mais facilmente.

Tamanho dos agregados presentes nos solos

Muitas vezes, é possível identificar a composição química dos solos comparando curvas
de refletância armazenadas em computador.

Em seus trabalhos de pesquisa. Orlov (1966) observou que aumentando o diâmetro dos
agregados há um decréscimo da refletância, gerando então uma equação em que:

»» R = refletividade (%);

»» K = diferença encontrada na interação entre as frações grossas e finas;

»» N = mudança gerada nos agrupamentos em decorrência de agregados


mais grossos;

»» R¥ = refletividade infinita.

Desta maneira, podemos obter curvas semelhantes apenas indicando o fator determinante
do processo de refletividade: os diâmetros dos agregados e não a composição química.

Cor do solo e teor de matéria orgânica e de óxido


de ferro

Para se analisar com precisão a cor do solo, deve-se notar que as regiões na faixa vermelha e
IV mais próximas são as mais indicadas para análise qualitativa e quantitativa dos solos.

Os teores de matéria orgânica presente nos solos influenciam de maneira considerável


a cor dos solos. Porém, a intervenção de fatores climáticos e manejos de solos podem
modificar os efeitos da reflexão na banda azul do espectro aumentando progressivamente
no intervalo espectral do verde ao NIR. Grande parte dos componentes orgânicos reduze
a refletividade dos solos, principalmente em comprimentos de ondas acima de 0,6mm.

As composições físico-químicas da matéria orgânica produzem efeitos:

»» Na capacidade de retenção de água.


39
UNIDADE II │ PRINCÍPIOS BÁSICOS EM SENSORIAMENTO REMOTO

»» Na cor.

»» Na estrutura.

»» Na possível ocorrência de erosão.

O concreto e seu comportamento espectral

O concreto possui refletividade de 20% a 0,4mm e de 40% vai entre 0,5 a 0,6mm.
Nesta segunda região, as plantas e os vegetais refletem valores aproximados de 20%
tornando fácil a identificação de bairros, cidades, estados, pequenos povoados e grandes
construções cercadas de vegetação.

O asfalto e seu comportamento espectral

Ao ser identificado na interpretação de imagens, o asfalto pode servir como ponto de


referência a outras feições. Apresenta muita refletividade na região do ultravioleta e
na região visível, do azul. Possui também coeficientes de extinção por metro como em
valores de 0,08; 0,02; e de 0,4 a 0,8mm e mínima extinção. Quanto maior o comprimento
de onda espectral emitida, mais rapidamente é absorvida pela água.

Satélites
Ao falarmos de satélite, logo nos lembramos de equipamentos de alta tecnologia que
estão orbitando a terra, ou entendemos que a lua também é um satélite. Em suma,
satélite é todo objeto que gira em torno de outro objeto.

A palavra satélite provém de origem latina, derivada de satelles ou satellitis, que hoje,
na língua portuguesa, ganhou importante significado para caracterizar corpos celestes
produzidos pelo homem. Os satélites são classificados em duas categorias: satélites
naturais e satélites artificiais.

São satélites naturais todo corpo celeste que orbita outro corpo com massa maior.
Um exemplo é a Lua, satélite natural da Terra, assim como as luas de Netuno como a
Phobos, e a Demos, lua de Marte.

Os satélites artificiais são equipamentos engenhosos construídos pelo homem colocados


no espaço para orbitarem em torno de planetas, como a Terra, ou mesmo em torno de
um corpo natural como a Lua.

O caminho que um satélite percorre é denominado de órbita. Os satélites artificiais só


permanecem em órbita em decorrência da velocidade que eles se deslocam no espaço
40
PRINCÍPIOS BÁSICOS EM SENSORIAMENTO REMOTO │ UNIDADE II

e da aceleração gravitacional da Terra. Dessa maneira, um satélite artificial possui


velocidade de 26.000 km/h, estando a 800 km de altitude acima da Terra.

É comum imaginarmos como satélites, equipamentos extremamente grandes e pesados


são colocados em órbita. Eis a resposta, eles são lançados por meio de veículos lançadores
como o foguete. Os satélites são acoplados a foguetes que os levam ao espaço. Lá eles se
desacoplam e são posicionados na órbita terrestre.

Breve histórico dos satélites

Os satélites surgiram na segunda metade do século XX, quando em 1957 imprensas


de várias partes do globo anunciavam os primeiros satélites a serem lançados pelos
Estados Unidos e União Soviética.

Assim, o primeiro satélite artificial da Terra foi o SPUTINIK, lançado no dia 4 de outubro
de 1957, pela antiga URSS. Um ano depois, em fevereiro de 1958, os EUA colocaram em
órbita o satélite EXPLORER I.

Após esse grande sucesso, o qual revolucionou para sempre a história tecnológica do
homem e sua forma de enxergar o planeta, foram colocados em órbita mais quatro
satélites artificiais, desta vez não para monitorar e registrar informações do planeta
Terra, mas sim de outros astros do nosso sistema solar: o Sol com o satélite Luna I,
em 1959; a Lua com o satélite Luna X, em 1966; em Marte com o satélite Marine IX,
lançado ao espaço em 1971 e Vênus com o satélite Venua, lançado em 1975.

Foi na década de 1960 que os satélites modificaram o nosso cotidiano de maneira


marcante. Com o lançamento do TELSTAR, em 1962, em seguida do INTELSAT-1, em
1965, a história da humanidade nunca mais foi à mesma. Estes satélites trouxeram a
tona um sistema de rede mundial de comunicação via satélite, possibilitando o envio de
imagens de televisão ao vivo.

Ainda em meados de 1960, os satélites possibilitaram as primeiras fotografias, pelos


satélites tripulados Mercury, Gemini e Apolo. Essas missões contribuiram para o
desenvolvimento de programas meteorológicos e de recursos ambientais terrestres.

O primeiro satélite meteorológico foi lançado pelos EUA no dia 1o de abril do mesmo
ano, TIROS-1. A partir de agora, pesquisadores de todo o mundo puderam contar com
esta tecnologia para subsidiar em estudos dos fenômenos climáticos e meteorológicos
da superfície terrestre, podendo realizar previsões do tempo com maior exatidão das
informações obtidas.

O satélite exclusivo para fins de uso no monitoramento de recursos terrestres foi lançado
somente em 23 de julho de 1972, o ERTS-1 (Earth Land Resources), tempo depois
41
UNIDADE II │ PRINCÍPIOS BÁSICOS EM SENSORIAMENTO REMOTO

denominado de Landsat 1, 2, 3, 5, 7 e 8 os quais estão com seus produtos disponíveis no


site oficial do Instituto Nacional de Pesquisas Espaciais – INPE.

Listamos agora alguns tipos de satélites e suas funções:

»» Satélites astronômicos: muito utilizados em observações astronômicas,


com o objetivo de explorar o universo. O primeiro satélite de exploração
cósmica foi lançado ao espaço em 1958 pelos EUA: Explorer I. A partir
de então, o estudo do céu utilizando as REM teve início em 1968,
pelas informações registras do satélite lançado pelos Estados Unidos,
OAO2. EM 1983, o homem teve a primeira cartografia completa do
céu, realizada através do satélite IRAS, que utiliza sensores na região
do infravermelho.

»» Satélites militares: ou mais conhecidos como armas antissatélites.


Esses satélites foram lançados na década de 1950 com o objetivo de
destruir satélites “inimigos” e identificar outros alvos em território
inimigo. Os Estados Unidos e a antiga União Soviética ainda possuem
esses satélites.

»» Satélites de observação da superfície terrestre: são satélites


utilizados para o monitoramento ambiental, mapeamento geográfico,
dentre outros.

»» Satélites do Sistema de Posicionamento Global e Navegação


(GPS): estes satélites são muito importantes e essenciais no envio de
sinais de rádio a equipamentos que recebem esses sinais na Terra, os
GPS, permitindo a determinação exata de sua localização geográfica em
tempo real e em qualquer ponto da superfície terrestre.

»» Satélites de reconhecimento: estes satélites foram projetados com


a finalidade de observação da superfície terrestre ou observar outros
satélites que eram utilizados para fins militares e espionagem.

»» Satélites meteorológicos: monitoram o tempo e o clima na Terra.

»» Satélites Geoestacionários: são satélites diferentes e se destacam por


ficarem fixos sobre um ponto em direção a Terra, ao invés de girar em
órbita dela. São utilizados para fins de comunicação, previsão do tempo
etc. Esse tipo de satélite representa a ficção científica que se tornou
realidade, por possuir relação direta com seu idealizador, o escritor
Arthus C. Clarcke, muito famoso por ter escrito o livro clássico 2001 –

42
PRINCÍPIOS BÁSICOS EM SENSORIAMENTO REMOTO │ UNIDADE II

Uma Odisséia no Espaço. Esses satélites possuem sensores que trabalham


na região das micro-ondas e operam em comprimento de grandes ondas.

»» Satélites miniaturizados: são aqueles com dimensões reduzidas, os


minissatélites que variam de 500 a 200 kg, e nano satélites com menos
de 10 kg.

»» Satélites de energia solar: esse tipo de satélite como já sabemos,


utilizam células solares na captação da energia solar, convertendo-a num
feixe de micro-ondas. Assim, transmite as micro-ondas para enormes
antes dispostas na superfície terrestre.

»» Biosatélites: são satélites utilizados com o objetivo de levar organismos


vivos para experimentos científicos espaciais.

»» Estações espaciais: fabricadas pelo homem, foram projetadas com o


intuito de permitir que seres humanos que vivam no espaço por meio
delas. As estações espaciais são desprovidas de capacidade de propulsão
e aterrissagem. No entanto, estas estações só abrigam humanos por
períodos de tempo, que podem variar de semanas até anos.

As atividades do setor de astronomia do Brasil envolvem a construção e operação


de veículos espaciais, foguetes e satélites. Essas atividades são coordenadas pela
Agência Espacial Brasileira (AEB). A AEB é responsável por realizar o Programa
Nacional de Atividades Espaciais (PNAE), com o principal objetivo de que o Brasil seja
autossuficiente na construção e no lançamento de foguetes e satélites. Neste sentido,
o Instituto Nacional de Pesquisas Espaciais – INPE desempenha papel de controle na
utilização dos satélites brasileiros.

É importante frisar que cada satélite é colocado em órbita de acordo com a função de
sua inclinação e seu período de giro em torno da Terra. As órbitas podem ser altas ou
baixas e de dois tipos específicos: a órbita polar e a órbita equatorial.

Existem hoje, vários satélites com órbitas inclinadas em direção aos polos e ao equador.
A órbita polar obedece ao sentido paralelo ao eixo da Terra, com uma inclinação no valor
de 90 graus, permitindo a passagem do satélite nela situado, por todo o eixo terrestre,
de forma sincronizada ao movimento da terra em relação ao sol. Nesse tipo de órbita, o
satélite cruza o equador sempre no mesmo local e horário.

Já a órbita equatorial conta com uma inclinação de 0 (zero) grau coincidindo com o plano
do equador. Está situada a uma altitude de cerca 36.000 km, permitindo ao satélite nela
posicionado, de completar uma volta ao redor da Terra num período de 24 horas.

43
UNIDADE II │ PRINCÍPIOS BÁSICOS EM SENSORIAMENTO REMOTO

Por este motivo, esta órbita é chamada de geoestacionária, pelo fato de o satélite estar
na mesma posição que a Terra, como se o satélite permanecesse estacionado em relação
à Terra, possibilitando a observância da Terra sempre na mesma área.

Os satélites são constituídos de três partes: a plataforma que tem dados valiosos dos
equipamentos nela existente para seu funcionamento; o painel solar que mostra o
nível de sua energia, e a carga útil, que são equipamentos essenciais como os sensores,
transmissores e antenas, os quais são responsáveis pelo sucesso na realização da missão
de um satélite.

Os satélites geralmente possuem formas em cubo e em cilindro, com tamanhos variados,


que vão de 1 a 5 metros de comprimento, com um peso estimado de 500 a 3.000 quilos,
da mesma proporção que outros equipamentos e plataformas e veículos. Podemos citar:

1. antena UHF de recepção;

2. câmera IRMSS;

3. módulo de serviço;

4. antena de transmissão em VHF 5; UHF Tx/Rx 6, dentre outras.

Assim os sensores remotos são uma importante peça vista como um tipo de carga útil
do satélite, que funcionam registrando a energia refletida ou emitida pelos objetos alvos
da superfície terrestre.

A energia captada pelos sensores logo é transformada em sinais elétricos e posteriormente


transmitida às estações de recepção na superfície do solo terrestre. Os sinais por sua vez,
são processados por estas estações e transformados em imagens, tabelas ou gráficos.

Cada sensor, segundo o tipo e a classificação, pode atuar capturando imagens através
da energia em diferentes níveis da região do espectro eletromagnético, como é o caso
do sensor óptico, que capta imagens na região do espectro visível e do infravermelho.
O olho humano é um sensor natural muito interessante que é capaz de enxergar apenas
na região do visível.

Outro tipo de sensor bastante utilizado são os radares. Com capacidade de enviar e
receber informações através da região das micro-ondas, os radares possuem uma
característica exclusiva, que o diferencia de outros sensores; eles funcionam à noite
também, sendo que os sensores ópticos só funcionam na luz do dia.

Os sensores remotos são providos de uma capacidade imprescindível, eles identificam


os objetos segundo seus tamanhos. Esta capacidade é mais comumente conhecida como
Resolução Espacial. Com vários tipos de resolução, um sensor com uma resolução de 20
44
PRINCÍPIOS BÁSICOS EM SENSORIAMENTO REMOTO │ UNIDADE II

ou 30 metros, por exemplo, pode detectar objetos da mesma grandeza ou de tamanhos


bem maiores.

O intervalo de tempo de aquisição de informações e dados é outra característica


fundamental dos sensores. Esta característica é de suma importância, pois alguns
sensores trabalham coletando dados de uma mesma área apenas uma vez por mês,
enquanto que outros atuam coletando dados diariamente.

Neste sentido, os satélites artificiais foram construídos e desenvolvidos com diversas


finalidades, auxiliando em estudos ambientais da superfície terrestre, na área da astronomia
e astrofísica, bem como na telecomunicação, experimentos científicos e meteorologia.

Os satélites de Posicionamento Global (GPC) estão dispostos em altas órbitas com cerca
de 20.200 quilômetros de altitude. São extremamente importantes, sendo usados na
navegação marítima, aérea e terrestre, além de auxiliar na localização exata de uma
pessoa por meio de um sistema de coordenadas geográficas.

Os satélites que atuam na área da comunicação e meteorologia situam-se em órbitas


muito distantes do planeta, com cerca de 36.000 quilômetros de altitude. Trata-se
de órbitas geoestacionárias, as quais são apropriadas justamente para estes tipos de
satélites, por possuírem uma antena que aponta sempre na mesma direção para o
espaço terrestre, capturando dados e os transmitindo em grandes frequências.

É graças a este satélite que nós humanos nos comunicamos por meio de milhões de
chamadas telefônicas, trocamos mensagens e também informações pela internet.

No campo da meteorologia, os satélites meteorológicos captam imagens de nuvens


da cobertura da Terra. É por meio destas imagens que são observados os fenômenos
meteorológicos como as geadas, frentes frias, chuvas, ciclones e furacões.

Por estes supersensores podem ser estudados os fenômenos associados às mudanças


climáticas. No Brasil, são usados para esta finalidade os dados obtidos pelo satélite
europeu METEOSAT e pelo satélite norte-americano GOES.

Satélites de sensoriamento remoto

Este tipo de satélite ganha destaque por suas aplicações na aquisição de dados de recursos
terrestres. Eles se situam entre 400 e 800 quilômetros de altitude, com uma órbita sol-
síncrona. Estão dispostos a uma inclinação com aproximadamente 98 graus quase polar.

Os sensores destes satélites captam imagens da superfície terrestre. Nesta perspectiva,


podemos afirmar que o sensoriamento remoto é a tecnologia que utiliza a aquisição
remota de dados da superfície terrestre por meio de satélites artificiais.
45
UNIDADE II │ PRINCÍPIOS BÁSICOS EM SENSORIAMENTO REMOTO

Na atualidade, existem poderosos programas de coletas de dados da Terra como é


o caso do Earth Science Enterprise composto de vários satélites artificiais, criado
pela NASA em três módulos: o primeiro módulo integra satélites de observação
exclusivamente do planeta Terra; o segundo módulo conta com um avançado sistema
de banco de dados, e o terceiro módulo constitui de uma equipe técnica que estuda os
dados coletados pelo Programa.

O Earth Science Enterprise tem o objetivo de adquirir as mais diversas informações e


interações dinâmicas dos fenômenos naturais terrestres como o ciclo da água, o processo
da água na interação com ecossistemas; química da atmosfera; gelo; as nuvens; os
ventos, dentre outros.

Para ampliar os conhecimentos e estudos do planeta, em 1960 foram lançados satélites


de alta tecnologia, com um padrão de resolução espacial extraordinário, os satélites
norte-americanos IKONOS e QuickBird, e o satélite francês SPOT-5, com resolução
próxima de 1 metro da superfície terrestre.

Esse tipo de resolução possibilitou um avanço científico, quanto à análise dos mais
diversos fenômenos naturais terrestres e as interações entre eles, assim como, subsidiou
estudos no campo das cidades, os quais sempre necessitaram de imagens mais precisas
e de alta resolução.

Estima-se que existam hoje entre 4.000 e 5.000 satélites em orbitando a Terra, com
uma predominância de 70.000 objetos espaciais, dentre eles, satélites e partes de
sucatas de foguetes, que ficam girando em torno do campo gravitacional do planeta.

Programas espaciais brasileiros

Inicialmente, os programas desenvolvidos pelos brasileiros previam a construção de


dois satélites: um para coleta de dados (SCD), que tinha objetivo de transmitir dados de
umidade, temperatura, volume dos rios e índice de chuva para as plataformas instaladas
no território brasileiro; e o outro, para fins de sensoriamento remoto, o (SSR).

Mais tarde, o objetivo de se possuir um satélite para coleta de dados referente a


fenômenos terrestres foi alcançado com o lançamento, em 1993, dos satélites SCD-1 e
SCD-2 e, em 1998, com o lançamento norte-americano da série do satélite PEGASUS.

O principal objetivo do SSR no Brasil, que é a obtenção de imagens da superfície


terrestre, ainda não foi conquistado. Porém, há um acordo formulado entre Brasil e
China para a utilização de imagens por meio do programa de cooperação internacional
com a China, o famoso China-Brasil (Earth Resources Satellite – CBERS) que significa

46
PRINCÍPIOS BÁSICOS EM SENSORIAMENTO REMOTO │ UNIDADE II

Satélite Sino-Brasileiro de Recursos Terrestres. A partir desse programa, temos os


satélites CBERS-1 lançado em 1999, o CBERS-2, lançado em 2003, o CBERS-2B,
lançado em 2007.

Devido ao sucesso do programa, os dois governos decidiram da continuidade ao mesmo,


sendo que no dia 9 de dezembro de 2013 foi lançado o CBERS-3, pelo foguete Longa
Marcha 4B, no Centro de lançamento de Taiyuan. E no dia 7 de dezembro de 2014 foi
lançado o CBERS-4, da mesma plataforma na China.

Os primeiros satélites da série CBERS possuem três tipos de sensores: o primeiro


conta com um Amplo Campo Imageador (WFI); o segundo possui uma Câmera de Alta
Resolução a (CCD), e por último um Imageador com atuação em Verredura de Resolução
(IRMSS). O sensor WIF apresenta uma resolução temporal de 5 dias, ou seja, trabalha
em frequências e períodos de imageamento, em contraste com a frequência do sensor
CCD do IRMSS, que dura 26 dias.

O sensor IRMSS do CBERS-2B foi substituído mais tarde por uma super Câmera
Pancromática de Alta Resolução – HRC, a qual conta com tecnologia de resolução
espacial de 2,7 metros da superfície terrestre, cobrindo uma área de 27 quilômetros,
levando 130 dias para imagear a Terra.

A Missão Espacial Completa Brasileira – MECB, para melhor utilizar seus satélites,
construiu amplas plataformas de coleta de dados, as quais ficam em solo e também
foram instalados centros laboratoriais com objetivo de realizar o processamento, a
intepretação e distribuição de imagens de satélite.

O Brasil possui também uma estação geoespacial que recebe dados dos satélites CBERS,
Landsat e NOAA, localizada em Cuiabá – MT. É a partir desta estação é que os dados
obtidos pelos satélites são enviados a um laboratório no Instituto INPE, localizado
em Cachoeira Paulista – SP, e distribuídos à equipe técnica de intepretação e estudos
geoambientais.

Atualmente, o Brasil vem planejando satélites meteorológicos e projetando na


construção de satélites na área da telecomunicação, para subsidiar na capacitação da
indústria moderna nacional de tecnologia de satélites geoestacionários.

Vamos descrever agora resumidamente algumas destas séries de satélites:

»» Landsat: este sistema (Land Satellite) foi o primeiro a capturar imagens


da superfície terrestre de média resolução. Esta série de satélite foi
desenvolvida pela NASA e entrou em operação em 1972. Inicialmente,
eram equipados com sensores Multispectral Scanner System (MSS) e

47
UNIDADE II │ PRINCÍPIOS BÁSICOS EM SENSORIAMENTO REMOTO

tinham a capacidade de coletar imagens de bandas separadas em formato


digital, com cada imagem cobrindo uma área de 185 km por 185 km.
Esse processo se repetia a cada 18 dias.

Esta série passou por muitas modificações, principalmente em relação


aos sensores, que hoje possuem 7 bandas espectrais. O penúltimo
satélite da série, o Landsat 7 compõe-se de sensores com tecnologia
Pancromática, que significa uma banda bem mais larga atuando em faixas
espectrais estreitas, em que pode chegar a uma resolução espacial de 15
m, deslocando-se a uma altitude de 705 km, numa órbita quase polar.
E o sensor ETM (Enhanced Tematic Mapper). O Landsat 8, o último
lançado, possui uma tecnologia embarcada bastante superior ao anterior
com capacidade de fotografar a superfície o dobro de vezes e com riqueza
de detalhes superior.

»» SPOT: este sistema foi planejado pelo governo francês em 1978, com
parceria entre Suécia e Bélgica, e gerenciado por uma entidade responsável
por programas e operações de satélite, o Centro Nacional de Estudos
Espaciais (CNES). A série conta com o lançamento dos satélites: SPOT-1,
em fevereiro de 1986, o SPOT-2, com lançamento um ano depois, o SPOT-
3, lançado em 1993, e o SPOT-4, lançado em 1998, o qual contempla com
a incorporação de mais um sensor para monitoramento da vegetação, e
mais um canal multi-espectral (XS).

»» Este satélite possui características básicas como:

›› altitude de 832 km;

›› velocidade de 13,3 km/s;

›› uma área de cobertura por cena imageada correspondente a 60 km por


60 km;

›› possui peso de 1.870 kg;

›› dimensões de 2m por 2m X 4,5m;

›› passagem durante o dia e a noite em órbita às 10h30min.

O sistema HRVIR (High Resolution Visible and Infra-Red) do sensor


SPOT captura imagens em suas 4 bandas espectrais: XS1, XSs2, XS3, XS4,
todas com resolução de 20m e uma banda Pancromática com resolução
de 10m.
48
PRINCÍPIOS BÁSICOS EM SENSORIAMENTO REMOTO │ UNIDADE II

O satélite SPOT conta com um sensor que pode ser utilizado em dois
lados de 0º a 27º, leste e oeste, respectivamente, o que auxilia na captura
de imagens dentro de uma faixa de 950 km de largura, técnica muito
conhecida como visada lateral, o que permite a revisão de áreas específicas.

Por exemplo, uma área próxima ao equador pode ser observada a cada
3,7 dias. Este é um recurso que demanda operações muito precisas e por
este motivo tem custo elevado.

»» NOAA: são satélites meteorológicos que orbitam a uma altitude de 840


km coletando dados de fenômenos atmosféricos terrestres, principalmente
nas regiões polares e oceanos. Sua operação ocorre de forma circular, quase
polar a 9 º em relação ao eixo da Terra num período de 102 minutos.

Nos anos de 1970 até 1975, foram colocados em órbitas os satélites


NOAA com números de 2 ao 5. Estes satélites incorporavam agora, novos
sensores que substituíram os sensores anteriores, são denominados de
VHRR e SR, com capacidades de gerar imagens de média a alta resolução.

O NOAA opera sempre com dois (2) satélites complementares, sendo


que um passa no início da madrugada e no início da tarde do mesmo
dia, enquanto que o outro passa no início da manhã e início da noite do
mesmo dia. Desta maneira, o imageamento é ralizado a cada seis horas.
Em 1999, os satélites NOAA-14 e NOAA-15 já entravam em operação.

Estes satélites operam com sensores de imageamento Advanced Very


Resolution Radiometer – AVHRR, que fornece imagens na região do
visível e do infravermelho durante o dia e noite. Este sistema constitui-se
de um radiômetro multiespectral o qual faz uma varredura transversal à
trajetória do satélite, permitindo avaliações precisas de corpos d’água, do
gelo, das condições das nuvens, temperaturas superficiais das marés e dos
oceanos, da temperatura da atmosfera, conteúdo de vapor de água contido
na atmosfera, conteúdo de gases das camadas de ozônio, dentre outros.

A resolução radiométrica de um satélite está estreitamente associada à sensibilidade


que um sensor possui em distinguir dois níveis de intensidade do sinal de retorno.
Assim, uma resolução de 10 bits é maior que uma resolução de 8 bits, o que permite aos
satélites melhor varredura e obtenção de dados para estudos e análises.

Desta forma, podemos concluir que os satélites são importantes equipamentos


tecnológicos de sensoriamento remoto desenvolvidos com diversos propósitos, dentre
eles, o de observar a dinâmica e a interação dos elementos e os fenômenos naturais do
único planeta que habita vida do sistema solar: a Terra.
49
INTERPRETAÇÃO E
ANÁLISES DE DADOS Unidade III
EM SENSORIAMENTO
REMOTO
Figura 9.

Fonte: <www.nasa.gov>. Acesso em: 17/11/2016.

Capítulo 1
Interpretação de imagens de satélites

No campo do Sensoriamento Remoto, a procura por imagens de satélites é muito grande.


São profissionais de diversas áreas e até mesmo uma boa parcela da sociedade que
utilizam as imagens de satélites por meio da confecção de mapas digitais e cartográficos
e dos meios de comunicação. A televisão, a internet e os jornais são os principais meios
que aqui podemos mencionar. Esses meios de comunicação são tão utilizados, que não
se percebe a conexão entre eles e essa tecnologia fornecida pelos satélites.

Muitas vezes, ao ligarmos a televisão logo nos deparamos em noticiários com as previsões
do tempo, as quais são feitas a partir da análise de imagens de satélites essencialmente
meteorológicos como o GOES e o NOAA. Esses satélites são indispensáveis para esse
nível de informação, eles podem cobrir (imagear) extensas áreas a nível global em uma
ordem síncrona e temporal, ou seja, levam de um a cinco dias para imagear a Terra, o
que os tornam exclusivos aos meteorologistas.

50
INTERPRETAÇÃO E ANÁLISES DE DADOS EM SENSORIAMENTO REMOTO │ UNIDADE III

Inicialmente, o termo interpretação de imagem já foi empregado para designar uma


atividade muito bem executada pela técnica de fotointerpretação. Nos dias de hoje, com
o rápido avanço no campo tecnológico e a evolução das geotecnologias, assim como nas
inovações decorridas do processo de aquisição de imagens de satélite, utiliza-se outra
técnica chamada de Interpretação Visual de Imagem – AVI. Alguns autores descrevem
esta técnica como Análise Visual de Imagem. Este termo ao longo das últimas décadas
substituiu o anterior, liderando o espaço que define a utilização tecnológica dos produtos
de satélites.

As imagens de satélites como vimos anteriormente, são extremamente utilizadas para


fins de estudos e acompanhamento da ocorrência dos mais diversos fenômenos naturais
terrestres. Com a técnica de interpretação dos mais diferentes tipos de imagens, pode-
se obter, por exemplo, a previsão do tempo, detectar a formação de furacões, prever
possíveis inundações, queimadas e monitorar o desmatamento ilegal.

Para Cruz (1981), a técnica de interpretação de fotografias aéreas e imagens digitais


computadorizadas por meio de satélites é um processo em que as “informações são
obtidas através da observação, desenvolvimento lógico e acurado, podendo se chegar a
conclusões”.

De acordo com Novo (1995), as observações realizadas na interpretação de imagens


estão diretamente associadas pela técnica de dedução, partindo do campo visual geral
para o particular e delimitado. Deste modo, o autor descreve que num primeiro instante,
ao olharmos uma imagem, seja ela digital ou fotográfica, observamos ela como um
conjunto agrupado de elementos naturais e não naturais. Depois disto, o campo visual
é decomposto gerando um processo de distinção do objeto relacionando-o a uma dada
categoria de identificação, relacionando o objeto ou alvo com os elementos existentes
em seu entorno.

A partir dessa junção dos elementos de análise, podemos levantar questões que só serão
respondidas por estudo dos casos em longo prazo. As questões elaboradas auxiliam na
organização dos dados adquiridos e no estabelecimento de objetivos.

Em princípio, começamos elaborar simples questões como a localização e distribuição


dos objetos na área imageada, para depois responder questões de alta complexidade
como a determinação da ordem comportamental de possíveis eventos naturais.

Listamos algumas dessas questões para melhor entendimento do processo de interpretação


de imagens:

1. Qual a localização dos objetos?

51
UNIDADE III │ INTERPRETAÇÃO E ANÁLISES DE DADOS EM SENSORIAMENTO REMOTO

2. Das feições identificadas na paisagem, quais são as mais significativas


para estudo?

3. De todos os objetos que pude identificar, quais deles possuem tonalidades


e texturas que os diferenciam um do outro?

4. Qual a legenda que melhor representa as estruturas identificadas?

Desta maneira, fazemos correlações entre os objetos observados nas imagens aos
existentes na paisagem de fato, sendo o trabalho de campo uma atividade essencial
para que o reconhecimento dessas feições se torne evidente. A conexão entre a realidade
da superfície terrestre e as imagens digitais e fotografias aéreas se demonstram
fundamental no passo a passo de uma boa interpretação.

O método de interpretação exige bastante treinamento. Assim, usuários desta área


profissional entram em constante prática levando-os a se familiarizarem com os
critérios de observação.

Cada critério de observação e análise de dados constitui num passo importante.


Num primeiro momento, um usuário ou operador executa uma simples leitura visual
da imagem, procurando relacionar os objetos nela existentes.

No próximo passo, o operador já realiza intuitivamente os procedimentos de dedução


ou indução, mesmo que a imagem mostre apenas parcialmente um objeto como, por
exemplo, o telhado de uma casa ou a copa de uma árvore.

Já num terceiro momento, o operador faz correlações entre os elementos discriminados


e logo elabora questões interpretativas como: a presença de uma lâmina de água num
terreno pouco acidentado pode indicar um solo pouco permeável.

Vamos conhecer agora os critérios fundamentais utilizados no processo de identificação


de feições, elementos e objetos contidos em imagens e fotografias. São eles:

Quadro 1. Elementos de interpretação.

Elementos de
Principais características
interpretação
Cor É um elemento utilizado para identificação nas fotografias e imagens coloridas.
Pode ser compreendida como a quantidade de luz refletida por um objeto. Conforme a quantidade absorvida ou refletida um
Tonalidade
objeto ou feição pode aparecer nas imagens em tons mais claros escuros e mais claros respectivamente.
Refere-se ao aspecto liso ou rugoso, homogêneo ou heterogêneo de feições nas imagens. A textura geralmente traz
Textura
informações quanto a variação de tons de cinza/cor de uma imagem.
Tamanho Um dos elementos importantes de identificação consistindo num critério que avaria a escala de uma fotografia ou imagem.
Outro elemento muito importante no processo de interpretação. Neste critério, objetos podem ser identificados de acordo
Forma com suas geometrias. Objetos naturais apresentam formas irregulares, enquanto que objetos artificiais construídos pelo
homem apresentam formas regulares e distintas.

52
INTERPRETAÇÃO E ANÁLISES DE DADOS EM SENSORIAMENTO REMOTO │ UNIDADE III

Elementos de
Principais características
interpretação
Altura É um dos componentes de grandes feições, permitindo obter informações dos objetos em fotografias ou imagens a nível 3D.
Padrão Auxilia na identificação de objetos a organização espacial deles na superfície terrestre.
Sombra Permite a aquisição de informações de grandes feições geralmente geomorfológicas em imagens bidimensionais.
Permite auxiliar na identificação de objetos, como as áreas urbanas que são identificadas por ter proximidade a rios, rodovias
Localização
e litorais.

Fonte: Adaptado de Florenzano (2002).

A integração desses critérios resulta num arranjo funcional perfeito para uma intepretação
altamente qualificada.

Métodos básicos de interpretação de imagens


Por meio da leitura fotográfica em termos gerais, podemos obter determinações como
a orientação geográfica, identificação de estradas, estradas de ferro, cursos d’água de
grande importância, estações do ano e classificação do terreno e suas formas topográficas.

Uma boa técnica para obter melhores resultados na análise de fotografias aéreas é
observação da fotografia de modo que as sombras representadas fiquem voltadas em
direção ao observador, como se houvesse uma faixa de luz iluminando a foto pelo lado
esquerdo, em cima do observador. Desta maneira, todos os elementos representados
com sombra indicam feições com elevações, e os que não apresentarem sombra
indicam depressões.

Para fazer análises e interpretação de imagens, podemos utilizar várias técnicas que
vão desde as mais simples como a fotoleitura, até as mais sofisticadas e complexas as
quais podemos citar a fotoanálise e fotodedução. Todas estas três técnicas são válidas
no processo de fotointerpretação e também para a intepretação visual de imagem.
Vejamos cada um deles.

»» Fotoleitura: esta técnica é a mais simples e permite primeiramente o


reconhecimento de objetos artificiais construídos pelo homem, os quais
possuem características comuns relacionadas ao terreno. Trata-se da
visão direta e vertical de elementos como: prédios, grandes construções,
barragens, campos cultivados, corpos d’água, florestas, dentre outras.

»» Fotoanálise: consiste na técnica da identificação de objetos por meio de


fotografias, a partir da junção estereoscópica de imagens, e na separação
de várias unidades examinadas do terreno a fim de se delinear as áreas
homogêneas que indicam diferentes condições de solos. Cada área

53
UNIDADE III │ INTERPRETAÇÃO E ANÁLISES DE DADOS EM SENSORIAMENTO REMOTO

homogênea presente nas imagens fotográficas é cuidadosamente analisada


e comparada a outras áreas. O objetivo deste método é estabelecer
similaridades e diferenças entre os terrenos representados. Por exemplo,
as áreas similares são identificadas por símbolos iguais.

»» Fotodedução: esta técnica é a mais complexa de todas. Consiste


na utilização da técnica da fotoleitura e ainda uma interpretação
geomorfológica da área representada na imagem, buscando encontrar
respostas para os processos responsáveis pela formação estrutural do
relevo. A técnica inclui também a análise detalhada de todos os elementos
encontrados em uma fotografia aérea.

O estudo e a interpretação de imagens aéreas ou de modelo estereoscópico pode


designar o intérprete a levantar deduções relacionadas a elementos ocultos na imagem.
Entretanto, com a finalidade da classificação dos solos, o método eficaz para uma boa
interpretação seria a ligeira combinação de dados fotográficos aéreos por meio de um
sistema estrategicamente planejado ligado aos trabalhos de campo.

Por mais que a técnica de fotointerpretação esteja estreitamente relacionada aos


procedimentos do Sensoriamento Remoto, no que se refere a constante utilização
de imagens de satélites e fotografias, a fotointerpretação está ainda mais associada
aos procedimentos dos Sistemas de Informação Geográfica – SIG. Considerando o
processamento, a distinção e extração de dados por meio de imagens ou fotografias
aéreas, podemos afirmar que todos eles ocorrem num ambiente de SIG.

Diversos autores já atribuem conceituações sobre o que seja fotointerpretação, a partir


do uso de imagens fotográficas, imagens de satélites e radares, como é o caso a seguir:

Em termos gerais pode-se conceituar fotointerpretação como a técnica que


realiza estudo de imagens fotográficas, buscando identificar, interpretar e
obter informações sobre os fenômenos e objetos nela contidos. Apesar de,
conceitualmente, a fotointerpretação estar tradicionalmente vinculada
a aerofotogrametria (aerofotointerpretação), ela pode ser estendida
a interpretação de imagens de satélite e de radar, ao menos quando
trabalhadas na faixa do visível. Em todos os casos, tem-se sempre que a
imagem captada deva ser vertical ou próxima disso (FITZ, 2008).

Neste sentido, podemos afirmar que o uso dos métodos de fotointerpretação e


interpretação visual de imagens objetiva exclusivamente na aquisição e identificação de
dados, objetos e elementos presentes na paisagem, contribuindo de forma significativa
nos estudos geoambientais.

54
INTERPRETAÇÃO E ANÁLISES DE DADOS EM SENSORIAMENTO REMOTO │ UNIDADE III

Interpretação visual de imagem


A Interpretação de imagens consiste em interpretar fotografias ou imagens identificando
os objetos representados nas imagens de satélites dando um significado a eles.
Independente da escala e resolução, as imagens de satélites apresentam os elementos
básicos de análise e interpretação, a partir dos quais se adquire informações de objetos,
áreas ou fenômenos.

O método de interpretação visual de imagem consiste num processo mais fácil de


identificação e análise de elementos. Trata-se da simples técnica da fotoleitura sem a
necessidade da utilização de um estereoscópio.

Forma geométrica

Para realizar a análise e/ou identificação de elementos em uma imagem de satélite ou


fotografia aérea, deve-se observar características como: as formas geométricas que
sempre seguem um tipo de padrão específico para cada elemento como nas lavouras,
estradas, linhas de desmatamento, limites de propriedades; assim como os canais de
rios que apresentam um padrão linear, meandrante ou uma forma angular.

Figura 10. Formas geométricas observadas em uma imagem na região dos municípios de Samambaia e
Ceilândia – DF. Pontos: 1 – canal de rio, 2 – estrada, 3 – edificações e 4 – floresta.

Fonte: Imagem SPOT adquirida no aplicativo Google Earth.

Localização

A localização dos objetos e elementos analisados em uma imagem é de grande importância


para distinguir, por exemplo, áreas de texturas semelhantes, assim como a forma e o
55
UNIDADE III │ INTERPRETAÇÃO E ANÁLISES DE DADOS EM SENSORIAMENTO REMOTO

padrão. Elementos com uma textura suave ao serem observados podem ser facilmente
confundidos com outro elemento de mesma textura, porém a partir da localização entre
os elementos, a identificação e seu significado ficarão mais evidentes.

Figura 11. Região sul do Estado do Pará – RS. Onde os pontos 1 e 2 embora possuam muitas semelhanças,
tratam-se de elementos diferentes em diferentes localizações. O primeiro é um afloramento rochoso e o segundo
uma área antropizada.

Fonte: Imagem Landsat Modificada adquirida no aplicativo Google Earth.

Cor

A cor é um elemento utilizado na interpretação de imagens coloridas (em falsa cor), nas
quais as variações da cena imageada são representadas por diferentes cores.

A cor do alvo, ou do objeto vai depender de sua resposta espectral levando em


consideração a quantidade de energia que ele refletir em cada canal correspondente à
imagem e da mistura entre as cores (composição).

A cor também está relacionada à composição de bandas, na qual as cores representadas


corresponderão às mesmas cores do mundo real. Neste processo, há variação de cores
de acordo com as características de cada objeto ou elemento. Mesmo em tons de cinza,
os elementos da cena apresentarão contraste disto.

De forma simples, podemos citar como exemplo o rio Solimões e o rio Negro, onde o
primeiro apresenta uma cor marrom dada à alta concentração de sedimentos em suspensão,
enquanto que o segundo apresenta uma cor escura dada a baixa concentração de sedimentos
em suspensão e principalmente pela concentração de matéria orgânica decomposta.

Na imagem representada, foram identificadas primeiramente três cores, as quais


contribuem de forma importante para a identificação dos objetos. Desta maneira, foram
analisados os seguintes objetos: floresta, rios, estradas e área urbana.
56
INTERPRETAÇÃO E ANÁLISES DE DADOS EM SENSORIAMENTO REMOTO │ UNIDADE III

Figura 12. Imagem do encontro das águas dos rios Negro e Solimões, em que as composições física e química
de cada rio resultam em uma cor específica, podendo ser distinguidos a partir de suas colorações.

Fonte: http://www.ciencia-cultura.com/astronomia/terrab.html.

Tonalidade

Este elemento é utilizado para interpretação de imagens em preto e branco, representadas


por diferentes tons de cinza. A tonalidade está diretamente associada ao brilho emitido
pelo objeto/alvo observado, que pode apresentar uma larga escala de tons de cinza.

Quanto mais clara este tipo de imagem for, significa que ela estará emitindo maior
quantidade de radiação. Enquanto que nas imagens que apresentam tons de cinza
escuros com tendência ao preto, significa que a radiação está sendo absorvida.

Neste quesito, as florestas densas apresentam uma tonalidade mais escura nas imagens
e as áreas desmatadas e antrópicas mostram tonalidades mais claras.

Figura 13. Município de Manaus – AM. Imagem com contraste de Tonalidades, na qual o ponto 1, na cor mais
clara, representa uma área antropizada que reflete mais a radiação que o ponto 2, uma área de floresta densa.

Fonte: Imagem Landsat Modificada adquirida no Aplicativo Google Earth.

57
UNIDADE III │ INTERPRETAÇÃO E ANÁLISES DE DADOS EM SENSORIAMENTO REMOTO

As áreas de cultivo produzem sombras que podem aparecer em fotografias ou imagens


em diversas tonalidades de cinza com predominância do cinza claro, assim como a
grama representada por vegetações de baixo porte e o milho em seu período inicial de
desenvolvimento, pois quando atinge a fase “madura” sua representação nas imagens
se dá por meio de tonalidade escura com uma textura bem grosseira.

As áreas de pastagem e campos apresentam-se com textura suave e tonalidade clara.


Já vegetação como florestas densas aparecem em tonalidade forte e escura, enquanto
que florestas em seu início de desenvolvimento apresentam-se com tonalidades claras.
As diferentes formas vegetais representadas podem ser identificadas como áreas
vegetais mistas.

As áreas de cultivo, devido suas formas, apresentam características que facilitam


no momento da interpretação de uma imagem ou fotografia aérea. Os pomares das
culturas, por exemplo, são facilmente identificadas por suas aproximações a rios e
corpos d’água. Os pastos são geralmente identificados pelas estradas próximas e trilhas
de gado. Outras áreas também são identificadas pelo conjunto de construções típicas
de grandes áreas rurais.

Figura 14. Área ao norte da cidade de Palmeira D’Oeste, onde é mais intenso o cultivo de culturas perenes.

Fonte: Imagem do satélite Landsat-5/TM, cena 222/74.

Pântanos, tanques e reservatórios são identificados por suas tonalidades de águas


escuras. Os pântanos possuem uma característica ótima de distinção, pois apresentam
grande quantidade de umidade o que torna sua reflexão espectral baixa, na qual
prevalecerá a tonalidade escura.

As estradas são identificadas com facilidades em fotografias. Porém, os tipos de pavimentação


são muito difíceis de serem reconhecidos, a não ser que sejam adquiridas em grande
58
INTERPRETAÇÃO E ANÁLISES DE DADOS EM SENSORIAMENTO REMOTO │ UNIDADE III

escala. As estradas que apresentam uma sinuosidade indicam que a região ao seu redor
é montanhosa.

Os cemitérios por sua vez, são facilmente identificados por suas formas regulares com
a presença de caminhos arborizados.

Textura

A textura é outro elemento importante na interpretação de imagens e refere-se ao


aspecto liso (uniforme) ou rugoso dos objetos, podendo ser classificada de superfina a
grosseira, quanto mais heterogênea a distribuição de tons, mais grosseira é a superfície.

A textura apresentada em uma imagem, por exemplo, revela comportamentos bastante


distintos, em que o pesquisador da área pode destacar as zonas homologas. Portanto,
cada tipo de textura representa um aspecto específico.

Figura 15. Imagem da região da Bolívia, próximo a cidade de Cochabamba, apresentando textura grosseira
refletida pelas características geomorfológicas do local.

Fonte: Imagem SPOT Modificada adquirida no Aplicativo Google Earth.

Tamanho

O tamanho é um elemento que depende da escala e da resolução espacial. Sabendo os


valores dos elementos observados em uma imagem, é possível distinguir uma residência
e uma indústria, por exemplo, ou de uma área industrial de uma agriculta.

Na imagem a seguir, podemos distinguir a presença de floresta próxima a um canal de


rio e uma cidade localizada na margem direita do rio.
59
UNIDADE III │ INTERPRETAÇÃO E ANÁLISES DE DADOS EM SENSORIAMENTO REMOTO

Figura 16. Imagem de parte da cidade de Porto Velho – RO, na escala numérica de 1:100.000, em que, a
partir dessa informação, é possível dimensionar o tamanho dos elementos presentes na cena, levando em
consideração que cada centímetro na imagem representa 1 km no campo real.

Fonte: Imagem SPOT adquirida no aplicativo Google Earth.

No campo da Geologia, as interpretações podem ser baseadas pela espessura e deslocamento


de suas falhas. A interpretação em outras áreas de aplicações como no caso da agricultura e
da pecuária, é notável que o gado aparece de acordo com o tamanho da escala utilizada.
De acordo com a escala usada para identificar os objetos, podemos distinguir aviões,
veículos, navios, dentre outros, utilizando com critério o tamanho e a forma.

Forma

A forma está ligada com as feições dos alvos e é um dos elementos mais importantes
na interpretação de imagens. Foi observado que as irregularidades da área analisada
indicam objetos naturais como matas, rios e lagos. No caso das formas regulares, foi
identificado estradas, linhas e BR, representadas na cor vermelha; e áreas de uso da
terra, como agricultura e capoeira, representado na cor verde claro, com textura mais
homogênea e sua forma geométrica bem acentuada ao lado de matas e solos expostos.

Figura 17. Forma circular vários vulcões no norte do Chile. A área em branco representa um salar, depósito antigo
de sal em lago salgado.

Fonte: Imagem CBERS 4/11/2000.

60
INTERPRETAÇÃO E ANÁLISES DE DADOS EM SENSORIAMENTO REMOTO │ UNIDADE III

Padrão

O padrão pode ajudar na identificação de objetos, uma vez que ele se refere ao arranjo
espacial ou à organização desses objetos em uma superfície. Na imagem de satélite
analisada, podemos associar um padrão de unidades habitacionais e do arruamento
ou linhas de uma cidade, que podem ser indicadores do nível socioeconômico de seus
habitantes. Outro padrão bastante característico é o da drenagem dos rios e córregos.

Geralmente, o padrão de drenagem, quando observado nas imagens, lembra a distribuição


dos vasos sanguíneos do corpo humano, e está associado aos tipos de rochas e solos da
área imageada.

A rede de drenagem formada por cursos de rios e córregos oferece um padrão considerado
muito importante, pois, por meio dela, podemos identificar aspectos inerentes ao
terreno como: geomorfologia da região, tipos de solos, vegetação se é densa ou não, e a
utilização dos recursos naturais para atividades e construções humanas. Considerando
os padrões de drenagem podemos citar: dentrítico, radial, anular, retangular e treliça.

O padrão apresentado na imagem estabelece uma estreita conexão com a “forma” onde,
por meio de sua organização, é possível realizar a interpretação como sendo uma linha
de plantação, dentre outros aspectos.

Figura 18. Município de Eucalipto – RS. Com padrões geométricos evidenciando áreas de plantação
contrastando com as matas ciliares.

Fonte: Imagem SPOT adquirida no aplicativo Google Earth.

61
UNIDADE III │ INTERPRETAÇÃO E ANÁLISES DE DADOS EM SENSORIAMENTO REMOTO

Sombra

A sombra é outro elemento que auxilia na definição do relevo e também na definição da


altura das feições representadas. O sombreamento pode estar relacionado com a hora
da captura da imagem juntamente da latitude da área imageada.

O sombreamento também produz um efeito luminoso muito interessante, que é observado


muito comumente nas imagens reveladas com grande escala e riqueza de detalhes.

Ocorre que a sombra é um efeito provocado pela radiação da luz solar em cima de feições
geomorfológicas como as serras, os morros e as chapadas. Assim, como este elemento
pode auxiliar na identificação dos objetos, ele pode também oculta-los como as estradas
em grandes vales.

Figura 19. Região do município de Pouso Redondo – SC. Imagem com sombreamento na encosta de uma
feição geomorfológica.

Fonte: Imagem SPOT modificada adquirida no Aplicativo Google Earth.

Identificação de desmatamento

A exploração desordenada e indiscriminada de madeira e a substituição da mata


nativa por outros tipos de uso da terra (agricultura, pecuária, expansão urbana etc.)
acabaram gerando um aumento significativo do processo de desmatamento no estado
de Ji-paraná. A imagem de satélite permite avaliar as áreas desmatadas pela cor (rosa/
magenta), onde se concentra na maior parte da imagem.

62
INTERPRETAÇÃO E ANÁLISES DE DADOS EM SENSORIAMENTO REMOTO │ UNIDADE III

Figura 20. Fotografia aérea capturada em janeiro de 2008 de área florestal que foi desmatada em Alta Floresta,
localizada no extremo norte do Estado do Mato Grosso.

Fonte: Inpe/divulgação.

Figura 21. Imagens do satélite Landsat mostram a evolução do desmatamento no período de 20 anos no Oeste
do Estado do Maranhão, divisa com o Pará.

Fonte: Inpe/divulgação.

Detecção de queimadas

Nas últimas décadas, aumentou muito a frequência das queimadas no Brasil, em


decorrência do aumento da ocupação do seu território. O emprego do fogo está
associado, principalmente, à expansão das fronteiras agrícolas, que é o limite entre
áreas agropecuárias e um ambiente natural, ou seja, é usado na substituição de florestas
e savanas por pastagens e culturas. As áreas com cobertura vegetal aparecem em verde
escuro e as áreas já desmatadas, com solo exposto tendendo ao roxo escuro.

63
UNIDADE III │ INTERPRETAÇÃO E ANÁLISES DE DADOS EM SENSORIAMENTO REMOTO

Figura 22. À direita, foto de satélite tirada em 1o de agosto de 2009 mostra região queimada na reserva de Utiariti
no Mato Grosso. À esquerda, para comparação, fotos na mesma escala de tamanho mostram a cidade de
Brasília, a Ilha de Fernando de Noronha, em Pernambuco, e a Ilha de São Sebastião (Ilhabela), em São Paulo.

Fonte: Inpe/divulgação.

Fotointerpretação
A fotointerpretação consiste na arte de elaborar deduções procurando encontrar um
significado para cada elemento natural ou artificial representado em uma imagem.
Essa arte é definida como o ato de examinar minuciosamente os objetos registrados em
imagens fotográficas aéreas.

Convenhamos ressaltar que a fotointerpretação é uma técnica e não uma ciência como a
Geologia e a Geografia. Desta maneira, ela necessita estar inteiramente ligada a um campo
profissional. Assim, dependendo do ramo profissional, podemos chamar os profissionais
em fotointerpretação de fotogeólogo, fotogeógrafo, agrônomo com especialização em
fotointepretação e engenheiro florestal, ou ainda no geral como um fotointérprete.

A fotointerpretação atribui um vasto conjunto de técnicas as quais podem ser aplicadas


nas mais diversas ciências, tanto na fotogeografia, quanto à fotoecologia, assim como
em estudos de zonas urbanas, por exemplo. Pode-se dizer, então, que a identificação
de cada objeto presente em uma imagem depende quase que exclusivamente de cada
especialista, não se limitando apenas ao tema quanto ao campo de estudo.

Uma boa interpretação se deve a acurácia que o fotointérprete deve ter em examinar
as imagens dos objetos na fotografia. Por esse motivo, o procedimento visual de
identificação dos objetos é longo e exige que o profissional utilize um recurso muito
64
INTERPRETAÇÃO E ANÁLISES DE DADOS EM SENSORIAMENTO REMOTO │ UNIDADE III

eficiente nesse campo denominado de “chave de fotointerpretação”, a qual serve como


uma referência auxiliando o fotointéprete em delimitar os objetos geográficos presentes
nas fotografias. Essas chaves baseiam-se em ilustrações ou mesmo descrições que dão
significado aos objetos por meio de estudos comparativos.

Ao se realizar a identificação dos objetos geográficos, o fotointérprete deve considerar


elementos de reconhecimento, são eles: cor/tonalidade, forma, padrão, densidade,
declividade, estrutura do objeto, tamanho, textura de grandes feições, sombreamento,
posição do objeto e suas adjacências.

Porém, não são necessários que sejam utilizados todos os elementos de identificação,
entretanto, pelo menos alguns, pois dificilmente se identifica um objeto apenas por
meio de um elemento de identificação.

A estereoscopia é outra técnica que permite ao fotointérprete de observar imagens e


fazer deduções e analogias. Entretanto, para se evidenciar o significado atribuído aos
objetos representados nas imagens, nesta técnica, é necessário que se faça trabalho de
campo, no qual, na área observada, deve ocorrer a presença de, no mínimo, cada tipo
de objeto observado. Por exemplo, a realização da fotointerpretação com o tema Uso da
Terra e as possíveis classificações como vegetação nativa, pastagem e cultivos.

Para a evidência desses objetos, uma pesquisa de campo deve ser planejada, em que
deverá ser encontrada, no mínimo, a ocorrência de cada uma dessas classificações.
A este processo damos o nome de reambulação.

Na reambulação é realizada uma comparação dos objetos identificados nas imagens


com os observados no trabalho de campo, como forma de confirmar, alterar ou validar
a identificação de objetos que não estejam visualmente perceptíveis nas imagens
analisadas.

Estereoscopia

Para entender o que é estereoscopia, vamos analisar hipoteticamente a seguinte


situação: uma pessoa observa duas fotos simultaneamente de tomadas de posições
diferentes, olhando cada foto com um olho através de um equipamento chamado
estereoscópio. Num dado momento, o que a pessoa verá na junção das duas fotos é um
objeto representado em três dimensões.

A estereoscopia é uma técnica utilizada na observação de um par de fotografias aéreas com o


objetivo de identificar qualitativamente objetos que serão visualizados tridimensionalmente
pelo olho humano.

65
UNIDADE III │ INTERPRETAÇÃO E ANÁLISES DE DADOS EM SENSORIAMENTO REMOTO

A estereoscopia está relacionada à fotogrametria, a qual consiste na técnica de identificação


de objetos através aerofotos por meio quantitativo, ou seja, procurando representa-los
conforme suas formas geométricas, como a área, o perímetro e as coordenadas.

Para que se consiga analisar aerofotos por meio da estereoscopia, é necessário que o
profissional ou fotointérprete utilize o estereoscópio, pois somente com este equipamento
é possível obter a percepção tridimensional do objeto ou área fotografada.

Na figura a seguir podemos perceber que cada eixo ocular está incidindo sobre o mesmo
ponto, podendo observar o pinheiro representado nas duas fotografias aéreas. Por meio
da visão de cada olho, as informações são obtidas e processadas em direção ao cérebro
pelos nervos ópticos, o que resulta na percepção de profundidade da imagem conduzindo
para um efeito tridimensional ao mesmo tempo.

Figura 23. Sistemática da estereoscopia.

Fonte <www.visaomonocular.org>. Acesso em: 17/11/2016.

Para que se viabilize este procedimento em uma determinada área, devem ser cumpridos
alguns requisitos como: no momento da observação, os eixos ópticos devem estar no
mesmo plano de visão.

A aerobase (B) deve ser proporcional à altura da aeronave (H’) para obter as fotos, onde
a razão matemática para este procedimento é: B/H deve ser tal que 0,02 < B/H’ < 2.

O olho humano é o componente principal para o sistema e os procedimentos


estereoscópicos. Sem a visão humana, a percepção da terceira dimensão (profundidade)
se torna impossível. A visão monocular permitida através da visão dos dois olhos num

66
INTERPRETAÇÃO E ANÁLISES DE DADOS EM SENSORIAMENTO REMOTO │ UNIDADE III

único plano possibilita ao homem determinar a posição e direção de diferentes objetos,


distinguindo, por exemplo, a forma, o tamanho e as cores deles.

É por meio da visão que conseguimos enxergar um vasto número de informações por
meio de imagens, para depois serem levadas ao cérebro. A percepção de profundidade,
portanto, baseia-se por meio de fenômenos como a experiência.

Analisemos os seguintes exemplos:

1. Ao olharmos uma fila de postes, notamos que ao nos afastarmos, a altura


deles diminui.

2. No momento em que observarmos uma estrada de longe, notamos que as


duas margens parecem se juntar.

3. Na presença de montanhas muito distantes, observamos uma cor azulada,


enquanto que se ficarmos próximas a elas a cor que prevalecerá é o verde.

Quando o olho humano recebe a incidência de luz refletida pelos próprios objetos
observados no terreno, temos o processo de estereoscopia direta. Diferentemente do
processo que envolve a observação de fotografias, as quais absorvem a quantidade de
luz emitida pelos objetos, este processo é denominado de visão estereoscópica indireta.

A visão estereoscópica depende da acomodação focal do olho, adaptando-o a distâncias


em relação ao alvo observado. Podemos comparar a diferença do olho a uma câmera
fotográfica, a qual possui uma distância focal fixa.

É importante frisar a distinção do termo Estereoscopia da Visão Estereoscópica, a


qual significa que o olho humano possui por natureza a percepção tridimensional.
Já a estereoscopia pode ser considerada como um procedimento que utiliza
equipamentos (estereoscópios) para a obtenção da visão tridimensional em imagens
fotoaéreas.

Instrumentos para visão estereoscópica

Os instrumentos mais utilizados no campo da fotointerpretação em sensoriamento


remoto serão descritos a seguir.

Estereoscópio de lentes

Também conhecido como estereoscópio de bolso, devido a sua portabilidade. A principal


vantagem deste equipamento é o baixo custo.

67
UNIDADE III │ INTERPRETAÇÃO E ANÁLISES DE DADOS EM SENSORIAMENTO REMOTO

Este instrumento possui uma armação simples que pode ser de metal ou de plástico de
forma que possa suportar um par de lentes, por meio das quais os olhos são posicionados,
trabalhando de maneira independente em uma linha de visão paralela.

Estes modelos, geralmente, possuem um regulador de distância interpupilar.


Este estereoscópio amplia mais o revelo que o estereoscópio de espelho. A ampliação
obtida por um estereoscópio de lente pode variar entre 1,25 a 4 vezes o tamanho do
objeto representado.

Figura 24. Estereoscópios de lentes.

Fonte: <www.visaomonocular.org>. Acesso em: 17/11/2016.

Estereoscópio de espelhos

O estereoscópio de espelhos ou estereoscópio de reflexão é o instrumento que reúne


dois espelhos, posicionados a 45º em relação à linha de visualização horizontal das
imagens/fotografias.

Este aparelho funciona com dois prismas ou espelhos de inclinação a 45º juntamente de
outras duas lentes permitindo a visualização ao infinito. Os espelhos destes aparelhos
são as componentes mais importantes deste equipamento necessitando de uma boa
qualidade óptica.

Dentre as principais vantagens, podemos destacar a maior distância entre as fotos,


a visão completa do modelo no sentido longitudinal e a acomodação do operador ao
binóculo. Porém, algumas desvantagens são consideradas como maior custo; a perda
iluminação refletida devido ao sistema mais complexo; e, manutenção periódica por
conta dos espelhos.

68
INTERPRETAÇÃO E ANÁLISES DE DADOS EM SENSORIAMENTO REMOTO │ UNIDADE III

Figura 25. Estereoscópios de espelhos.

Fonte: <www.visaomonocular.org>. Acesso em: 17/11/2016.

Estereoscópio digital

Com o crescente avanço da tecnologia e da informática, surgiram os estereoscópios digitais


ou “Screenscope”. Este instrumento se baseia na montagem do Estereograma (junção de
um par de fotografias com características de visualização estereoscópica). O estereograma
é montado com fotografias aéreas digitais que são processadas por um software. A partir
de então, o visor do estereoscópio é direcionado à tela do computador, onde o operador
posiciona seu rosto para que possa visualizar a imagem adaptada no monitor.

Figura 26. Estereoscópios digital.

Fonte: <www.visaomonocular.org> acesso em: 23/11/2016.

A utilização adequada do estereoscópio de bolso, de espelhos ou o digital, permite


a construção de mapas temáticos e possibilita o processo da medição precisa dá
área trabalhada.

69
INTRODUÇÃO AO
PROCESSAMENTO DE Unidade IV
IMAGENS
Figura 27.

Fonte: Imagem SPOT adquirida no aplicativo Google Earth.

Capítulo 1
Processamento Digital de Imagens

O campo do Processamento Digital de Imagens (PDI) tem sido alvo de crescente interesse
por possibilitar diversas aplicações no aprimoramento de informações pictóricas de
uma área na forma de imagem com a finalidade de interpretação humana; e na análise
automática operacional realizada por meio de um computador que extrai informações
de uma cena (imagem).

Entende-se por Processamento Digital de Imagens, a manipulação de uma imagem


computadorizada em que a entrada e saída do processo operacional sejam imagens digitais.

O principal objetivo de usar o PDI é aperfeiçoar o aspecto visual de feições estruturais


capturadas por imagens, a qual é feita por um analista da área, fornecendo importantes
interpretações para gerar produtos indispensáveis no estudo das feições terrestres.

70
INTRODUÇÃO AO PROCESSAMENTO DE IMAGENS │ UNIDADE IV

Segundo Silva (2001), o processamento digital de imagens exerce função de extrema


importância, pois fornece ferramentas essenciais que facilitam a identificação e a
extração de valiosas informações existente em imagens, sendo que a interpretação é a
forma de compreensão verbal ou não verbal extraída das imagens por meio de modelos
padrões construídos pela Física, Geometria, Estatística e Teoria da Informação.

No contexto de processamento digital de imagens, a interpretação envolve um conjunto


de objetos e padrões que compõem a imagem e que são reconhecidos pela visão humana.
Essa atividade requer muita capacidade de cognição do intérprete.

Os sistemas de computação são utilizados, então, para realizar atividades de análise


e manipulação das imagens inicialmente brutas, tendo como resultado a produção de
outras imagens que contém informações detalhadas, que foram extraídas e melhoradas
das imagens brutas.

O olho humano possui um sistema visual de capacidade extraordinária em reconhecer


formas e padrões. Porem, ele não é capaz de processar de uma vez só um grande volume
de informação presente em uma imagem.

Há, entretanto, vários tipos de distorções, perda de informação pertinente aos processos
de aquisição dessas imagens, o que limita consideravelmente a capacidade que o
intérprete possui em analisar e distinguir as feições existentes nas imagens.

Devido aos problemas encontrados na aquisição e interpretação de imagens, o


processamento adquire como objetivo principal, o de remover estas limitações existentes
ao sistema visual humano, procurando facilitar ainda mais a extração de informações
das imagens.

De acordo com Queiroz (2003), existem infinitas formas de manipulação de imagens


digitais, que vão desde sistemas de baixo custo até sofisticados investimentos em
estações utilizadas para intenso uso de imagens.

Podemos categorizar um ou mais procedimentos possíveis de manipulação e operações


computacionais:

»» Restauração e retificação de imagens: são operações realizadas com


a finalidade de amenizar as distorções geradas na imagem a partir das
degradações de seus dados na hora da aquisição, a qual se pretende criar
representações fiéis da cena.

»» Realçamento de imagens: compõe-se num sistema de procedimentos que


são aplicados aos dados de forma a se obter melhor visualização da cena
interpretada.
71
UNIDADE IV │ INTRODUÇÃO AO PROCESSAMENTO DE IMAGENS

»» Classificação de imagens: são operações específicas com intuito de


substituir a análise feita por um intérprete, por técnicas quantitativas
automáticas de computador, objetivando a identificação de áreas e
regiões das cenas adquiridas.

»» Combinação de dados: são combinações utilizadas em procedimentos a


fim de se combinar dados de uma determinada imagem com referência a
uma dada região ou área geográfica a outros conjuntos de referenciados
para a mesma área.

Quando se tem um grande volume de dados inerentes a imagens de satélites


relacionados a uma complexidade relativa de cálculos, os recursos computacionais se
tornam indispensáveis para devido armazenamento e tratamento de informações do
Sensoriamento Remoto – SR.

A informática se apropriou dessas ferramentas computacionais como softwares e


equipamentos específicos, que suportam uma quantidade imensa de dados, como no
caso dos discos rígidos que vão de pequenos gigas até terabytes de volume de dados,
fitas magnéticas dentre outros, além de monitores de vídeo que, com alta resolução, são
utilizados para análise, interpretação e visualização de imagens.

Há ainda eficientes dispositivos de entrada como os leitores de fita, CD e scanners e


também ótimos dispositivos de saídas como as impressoras, unidades de gravação de
fitas magnéticas e CDs e traçadoras (plotters).

No tratamento digital de imagens, temos ainda grandes capacidades em armazenamento


de dados, recurso este que auxilia na redução do tempo de espera do intérprete,
agilizando no processamento da imagem.

O sistema de processamento digital de imagens tem respondido com eficiência as


demandas do SR. Desta maneira, o PDI tem evoluído quando a recursos técnicos e
humanos contribuindo de forma eficaz ao sensoriamento remoto.

Há vários sistemas de processamento digital de imagens, dentre eles podemos citar:


ARCGIS, ENVI, ERDAS, SAGA, QGIS, IDRISI e vários outros.

Amostragem e quantização
Para se obter uma representação digital de uma imagem, são realizados processos de
discretização da imagem. A amostragem e a quantização se designam como processos
de discretização.

72
INTRODUÇÃO AO PROCESSAMENTO DE IMAGENS │ UNIDADE IV

Assim, podemos afirmar que uma imagem digital pode ser definida por meio da
amostragem e quantização em coordenadas espaciais (x, y) onde cada ponto (pixel)
corresponde a uma unidade de formação da área imageada, que é formada por um
conjunto de pontos por uma função bidimensional f(x, y), em que x e y (linha e coluna)
são coordenadas geoespaciais, sendo que o valor de f num dado ponto (x, y) representa
a radiância ou energia emitida da região correspondente ao pixel em níveis de cinza.

Em imagens digitais, quanto maior for o intervalo de valores de cada pixel, maior será
sua resolução radiométrica; quanto maior for a quantidade de elementos da matriz por
unidade de área do terreno, maior será sua resolução espacial.

Desta maneira podemos quantizar a frequência de níveis de cinza numa imagem.


Eles podem ser analisados por meio de um histograma, o qual nos dá a frequência
numérica de ocorrência e contraste a nível médio do cinza.

O valor da média dos níveis de cinza em uma imagem diz respeito ao seu brilho, já a
variância dos níveis corresponde ao contraste. Assim, quanto maior for a variância dos
níveis pelo histograma, maior será o contraste da imagem.

Pré-processamento de uma imagem


O processo realizado antes do processamento digital de uma imagem que é feito com
o objetivo de melhorá-la aumentando as chances de sucesso nos passos seguintes é
denominado de pré-processamento, ou seja, é a etapa preliminar do tratamento digital
de imagens.

Esse processo permite que imagens recebidas diretamente dos satélites, que contém
muitas degradações radiométricas causadas dos desajustes na calibração dos detectores
dos sensores e erros na transmissão dos dados, assim como distorções geométricas,
sejam primeiramente tratadas e ajustadas para as etapas seguintes.

Se não corrigidas as imperfeições contidas na imagem, resultados dos produtos


derivados das imagens podem ser comprometidos. Geralmente, os fornecedores dessas
imagens como o INPE, já realizam esse processo de pré-processamento e entregam as
imagens prontas para serem analisadas e interpretadas.

Os três principais tipos de pré-processamento são:

»» Correção radiométrica: este é um tratamento de imagem que se destina


a reduzir as degradações ocasionadas devido à calibração dos detectores
radiométricos e eventuais erros na transmissão de dados.

73
UNIDADE IV │ INTRODUÇÃO AO PROCESSAMENTO DE IMAGENS

Os principais corretores para esses problemas são o “Stripping” que se


aplica na correção de diferenças ou desajustes presentes decorrentes da
calibração dos detectores, e o “Droped lines”, aplicado em linhas num
padrão anômalo, decorrente da perda de informações ocasionadas
durante a gravação ou durante a transmissão dos dados.

»» Correção atmosférica: se dá principalmente devido aos fatores de


degradação ocorrido nas imagens, que, na maioria das vezes, acaba
comprometendo a análise e intepretação das mesmas. Conforme o
comprimento de onda, a intensidade deste efeito pode variar afetando
diferentemente cada banda espectral.

A correção da imagem neste tipo de pré-processamento pode ser feita


por meio de modelos matemáticos que são baseados em parâmetros
atmosféricos. Tais parâmetros são obtidos em estações meteorológicas
na hora e data exata da passagem do satélite, o que torna este método um
procedimento difícil de executar.

Uma das técnicas para esse procedimento é baseada na ideia de que as


nuvens mais densas, os relevos e corpos d’água limpa deveriam ter a
radiação nula e, por isso, os níveis de cinza seriam zero.

Portanto, os valores acima de zero, encontrados nestas respectivas áreas,


são decorrentes do espalhamento atmosférico. Esta técnica é muito
conhecida por subtrair o menor valor medido de cada pixel de cada banda
espectral destas áreas.

Outro método utilizado na correção atmosférica é a regressão de bandas.


E acontece da seguinte forma: caso não houvesse efeito aditivo da
atmosfera, a cada duas bandas relacionadas entre si, uma reta deveria
passar pela origem de seus eixos. Porém, em dado momento a reta
cortaria o eixo y em algum ponto maior que zero ocasionado por efeitos
atmosféricos da banda.

»» Correção geométrica: este método consiste na transformação de


coordenadas de pixels para um sistema geográfico (E, N), permitindo a
imagem de assumir propriedades cartográficas de um respectivo sistema
de projeção.

O principal motivo para se corrigir ou ratificar uma imagem se deve pela


criação de mosaicos e carta imagem, corrigir as distorções existentes num
imagem, atualização de banco de dados geográficos, acompanhamento
74
INTRODUÇÃO AO PROCESSAMENTO DE IMAGENS │ UNIDADE IV

de mudanças do terreno, extração de medidas e subsidiar na aplicação da


cartografia com a integração do Sensoriamento Remoto.

O desalinhamento ocasionado pelo processo de varredura da superfície da Terra é


decorrido das oscilações que um satélite faz em torno de eixos referente a um sistema
de coordenadas (x, y, z). As oscilações provocadas pelo satélite são denominadas por
“row”, e fazem distorções na imagem.

Fatores como altitude do satélite, velocidade, imperfeições dos mecanismos de


varredura dos sensores e o movimento de rotação da terra contribuem fortemente para
provocar distorções geométricas nas imagens.

Registro de imagem
Ao modificarmos as coordenadas de uma imagem (linha e coluna), correlacionando às
coordenadas geográficas (latitude e longitude) de um mapa, dizemos que foi feita uma
transformação geométrica dos dados, ou, o registro de uma imagem.

Toda vez que é realizado este procedimento, temos como resultado a eliminação de
distorções que antes havia na imagem. Estas distorções sempre ocorrem ou pelo
processo de formação da imagem, ou pelo sistema sensor, ou ainda pela aquisição de
dados advindos das plataformas sejam elas de aeronaves ou satélites. Neste sentido,
pode-se dizer que a correção geométrica trata da eliminação dos erros encontrados
nas imagens.

O registro é, portanto, a transformação geométrica das imagens decorrente das relações


fixadas entre as coordenadas da imagem (linha e coluna) e as coordenadas geográficas
(latitude e longitude).

Dentre os benefícios do registro de imagem temos:

»» Análise temporal das imagens obtidas por satélites que as adquirem em


diferentes tempos.

»» Obtenção de informação tridimensional por imagens de diferentes posições.

»» Integração de imagens adquiridas por diferentes sensores.

»» Geração e confecção de mosaicos de imagens.

Ao georreferenciarmos uma imagem ou um mapa, estamos tornando as coordenadas


geográficas conhecidas em um sistema de referência. Esse processo é essencial

75
UNIDADE IV │ INTRODUÇÃO AO PROCESSAMENTO DE IMAGENS

para solucionar diversos problemas relacionados ao sensoriamento remoto como:


aplicação na área de cartografia, geografia, uso da terra e integração de dados de uma
imagem num SIG.

De uma maneira mais simples de entendermos como funciona a integração de dados,


basta nos lembrarmos do Sensoriamento Remoto e do Geoprocessamento, os quais
dependem de imagens de satélite ou aeroespaciais que estejam integradas a uma base
de dados de um Sistema de Informação Geográfica – SIG.

Por este motivo é que entram em cena os procedimentos de ajustes e correção geométrica
que podem ser chamados também de georreferenciamento e podem ser reduzidos a
procedimentos mais simples como o registro de imagem.

De acordo com Queiroz (2003), em imagens derivadas do sensoriamento remoto, é


necessário que se faça correções das distorções geradas pela aquisição e, também, que
estejam sempre referidas a algum sistema de coordenadas. Este procedimento reduzirá
os erros e distorções encontrados nas imagens, permitindo que se tenha uma precisão
cartográfica delas.

Modelo polinomial de registro de imagens


Este modelo utiliza-se de equações em que os parâmetros são determinados por meio
de uma relação entre as coordenadas de uma imagem e as coordenadas do sistema
de referência da base de dados, de forma que o produto dessa relação seja a geração
de pontos de controle. Este é o modelo mais utilizado em quase todos os sistemas de
registro de imagens.

Os pontos de controle que são gerados a partir da identificação do sistema de referência


e do sistema de informações geográficas são especificamente as feições mais facilmente
reconhecidas por um intérprete como a confluência de rios, cruzamento de estradas,
áreas de florestas etc.

Estes pontos podem ser adquiridos tanto em imagens adquiridas para fins de
mapeamento, como em mapas digitais que utilizam um sistema de referência.
Para melhor desempenho desse método, a distribuição dos pontos é muito importante,
pois são eles que vão registrar e fazer o reconhecimento das feições contidas
na imagem.

Para melhor resultado no georreferenciamento de imagens, deve-se ser gerado no


mínimo de 6 a 10 pontos de controle por área de 1.000 x 1.000 pixels. O procedimento
de registro de imagem para um mapa, se dá a partir de um mapa conhecido como
tratado como base vetorial.

76
INTRODUÇÃO AO PROCESSAMENTO DE IMAGENS │ UNIDADE IV

Cada ponto de controle gera um erro que deve ser analisado caso por caso. Então, pode-se
aplicar o menor valor possível de cada ponto na transformação da imagem original
sendo desta forma, produzida automaticamente outra imagem já corrigida conforme a
projeção cartográfica do mapa.

Para se confeccionar um mapa, deve-se ter no mínimo uma imagem digital carregada
no computador, a qual servirá como ajuste, para ser corrigida.

Nos dias atuais, é fácil ter acesso a informações geoespaciais, assim como a aquisição de
imagens de satélites. Várias instituições como o INPE e o IBAMA dispõem gratuitamente
imagens já georrefenciadas. Para quem já trabalha com estes tipos de arquivos possui
esta vantagem. Porém é muito comum que um pesquisador não encontre a imagem
georreferenciada de sua área de estudo.

Outra situação que merece atenção é o uso de imagem do Google Earth em vários
trabalhos acadêmicos. O problema é que este tipo de imagem não vem georreferenciada,
tornando difícil processá-la num ambiente SIG.

A partir destes conceitos e conhecimentos sobre registro de imagens (georreferenciamento),


a seguir, serão apresentados, de forma prática, os procedimentos necessários para se
georreferenciar uma imagem utilizando para isso o software livre Quantum Gis.

Registro (georreferenciamento) de imagem


utilizando o software Quantum Gis

Para realizar este procedimento, vamos imaginar uma área hipotética de estudo
utilizando a Escala Temporal como referência. O objetivo do estudo é apontar os avanços
do desmatamento ou a regeneração da floresta.

Pois bem, utilizaremos então uma imagem de satélite do ano 2005 já georreferenciada
para servir de referência para esta atividade e também iremos utilizar outra imagem
capturada do Google Earh, desta vez do ano de 2014, a qual servirá de objeto para esta
atividade nos próximos passos.

Passo 1

Iniciaremos abrindo o Quantum Gis e a primeira coisa a ser observada é se a extensão


para georreferenciamento está ativa. Para isso, deve-se clicar na opção “Complementos”
na barra do menu Superior, depois “Gerenciar e Instalar Complementos”. Na sequência
faça uma busca pelo nome da extensão “Georreferenciador GDAL” e o instale ou atualize,
caso já esteja instalado.

77
UNIDADE IV │ INTRODUÇÃO AO PROCESSAMENTO DE IMAGENS

Figura 28. Instalando a extensão de Georreferenciamento.

Fonte: próprio autor.

Passo 2

Após ativação da extensão para georreferenciamento, inicia-se abrindo a imagem mais


antiga, já georreferenciada a qual servirá como base de referência pra obtermos as
coordenadas necessárias que iremos utilizar. O procedimento para inserir a imagem já
georreferenciada segue conforme a ilustração a seguir.

Figura 29. Inserindo camada raster já georreferenciada.

Fonte: próprio autor.

Passo 3

Após carregar a nova camada raster, vamos aos procedimentos para inserir a figura/
imagem que ainda não está georreferenciada.

78
INTRODUÇÃO AO PROCESSAMENTO DE IMAGENS │ UNIDADE IV

Para isto, basta optar por “Raster” na barra do menu na parte superior da tela de
trabalho do Quantum Gis.

Na sequência, a opção “Georreferenciador”, conforme ilustração a seguir.

Figura 30. Acessando a ferramenta georreferenciador.

Fonte: próprio autor.

Passo 4

Após clicar sobre a ferramenta de georreferenciamento, abrirá a uma interface na qual


ocorrerão todos os procedimentos desta atividade. Essa interface é composta por um
menu de diversas ferramentas, cujas principais são:

1. Abrir Raster => Opção para importar a figura que se deseja georreferenciar.

2. Zoom => Opção para ampliar e diminuir o zoom da tela de trabalho.

3. Adicionar Ponto => Opção para adicionar coordenadas na imagem que


deseja georreferenciar.

4. Excluir Ponto => Opção para excluir pontos que porventura tenham sido
inseridos de forma equivocada.

5. Iniciar Georreferenciamento => Opção para processar todos os pontos


inseridos na imagem que esta sendo georreferenciada.

Figura 31. Interface do Georreferenciador.

Fonte: próprio autor.

79
UNIDADE IV │ INTRODUÇÃO AO PROCESSAMENTO DE IMAGENS

Depois de conhecermos as principais ferramentas da interface do Georreferenciador,


damos início a atividade carregando a imagem que iremos georreferenciar e procedemos
o passo a passo da seguinte forma:

»» 1o Passo – buscar na imagem pontos homólogos para inserir as coordenadas,


ou seja, utilizar áreas na imagem nova que sejam idênticas na imagem
velha.

»» 2o Passo – ao clicar no ponto onde se deseja inserir a primeira coordenada,


abrirá uma caixa de diálogo, na qual há a possibilidade de digitar uma
coordenada já pré-definida ou lançar uma coordenada a partir do mapa
da tela ao lado.

»» 3o Passo – clicar sobre o mapa ao lado, exatamente no mesmo ponto onde


foi clicado na figura que está sendo georreferenciada.

»» 4o Passo – sempre que realizar as marcações dos pontos homólogos, o


sistema irá pedir para confirmar no “OK”, o qual deverá ser executado.
Deve-se repetir esse mesmo procedimento até que diversos pontos
estejam bem espalhados pela imagem.

Figura 32. Inserindo coordenadas para georreferenciamento.

Fonte: próprio autor.

Depois de lançadas todas as coordenadas e clicado em “OK”, será possível ver todos os
pontos distribuídos nas duas imagens, na que está sendo georreferenciada e na que já
está georreferenciada e que serviu como base de referência.

80
INTRODUÇÃO AO PROCESSAMENTO DE IMAGENS │ UNIDADE IV

Figura 33. Pontos homólogos a partir do ângulo da estrada (coordenadas confirmadas) e a opção “Iniciar
Georreferenciamento” para processar as coordenadas inseridas.

Fonte: próprio autor.

Após clicar em iniciar georreferenciamento, abrirá um painel de configuração em que


deverão ser ajustados e inseridos algumas informações básicas, tais como:

»» 1o Passo – indicar qual o tipo de transformação e o método de reamostragem,


lembrando que conforme o tipo de transformação escolhido, maior ou
menor, será a quantidades mínimas de coordenadas e serem inseridas.

»» 2o Passo – escolher a pasta de destino para a imagem (base cartográfica)


e inserir um nome de identificação para a imagem.

»» 3o Passo – finalizar em “OK” e esperar a imagem abrir na tela de trabalho


do Quantum Gis.

No mesmo painel de configuração acima mencionado, deve-se atentar para


“SRC de Destino”, que é a escolha da Projeção e a escolha do Sistema Geodésico
de Referência, sendo eles a projeção UTM, para esse trabalho, e o Datum
SIRGAS2000 (Datum Oficial).

Figura 34. Painel de configuração de saída da imagem georreferenciada.

Fonte: próprio autor.

81
UNIDADE IV │ INTRODUÇÃO AO PROCESSAMENTO DE IMAGENS

Finalizadas todas as etapas, torna-se possível a utilização da nova imagem georreferenciada


como uma das camadas de informação, podendo ser reprocessada e exportada sempre
que necessário. Na figura 35, estão abertas na tela de trabalho do Quantum Gis as imagens
A e B, em que a primeira é a imagem que já estava georreferenciada e a segunda foi a que
acabara de ser georreferenciada.

Figura 35. Comparativo de imagens A e B georreferenciadas.

Fonte: próprio autor.

Vale lembrar que esse procedimento de georreferenciamento é uma prática simples voltada
a processamento simples de arquivos geoespaciais, diferente do georreferenciamento
tradicional de propriedades rurais, onde se faz necessário a utilização de equipamentos
GPS apropriados e técnicas e procedimentos convencionados e homologado pelo INCRA.

Classificação de imagem
A classificação de uma imagem é a tarefa de extrair informações a fim de se reconhecer
os padrões e objetos que serão utilizados para mapear a superfície terrestre.

Este processo está inteiramente associado a cada pixel da imagem, utilizando-o para
descrever um objeto real. Assim, com este processo pode-se obter um mapa temático
da área de interesse.

É, ainda, a tarefa de decisão de qual algoritmo utilizar para fragmentar o espaço de


interesse. Por exemplo, quando uma imagem é classificada, os pixels são registrados de
acordo com a região de estudo ou a ocupação do solo.

De forma mais técnica, para cada pixel característico da imagem, o programa específico
deve decidir qual a formação mais adequada de um vetor. Após isso, o programa deve
gerar um mapa de saída, onde a cada pixel será atribuído um rótulo de classe ou tema
como a divisão do espaço característico.
82
INTRODUÇÃO AO PROCESSAMENTO DE IMAGENS │ UNIDADE IV

A característica fundamental desse processo é a classificação dos pixels de uma imagem


mediante várias classes de coberturas ou temas criados com a finalidade de produzir
mapas temáticos, como por exemplo, um geocampo de vegetação que é classificado pelo
conjunto de floresta densa, aberta, cerrado, dentre outros. Mapas com denominadores
estatísticos de campo como no caso do mapa de altimetria.

Portanto, a verdadeira intenção do processo de classificação é atribuir todos os pixels de


uma determinada área de uma imagem digital a uma classificação que seja compatível a
sua classe de cobertura ou tema. Desse modo, os dados classificados poderão ser muito
bem utilizados na produção de mapas cartográficos diversos.

O objetivo fundamental da classificação de imagens é o de relacionar elementos naturais


semelhantes de maneira que se possa elaborar hipóteses referente a área estudada e os
possíveis fenômenos que ali se encontram.

Segundo Lillesand (1994), há um termo descritivo de um elemento em que se obtêm


as medidas da radiância de cada pixel derivado das bandas das imagens obtidas, é o
“padrão”. Para ele, reconhecer os padrões espectrais das imagens é necessário, pois o
padrão está relacionado à informação espectral de cada pixel, servindo como base para
uma posterior classificação automática.

A análise e distinção de cada componente e a relação desses componentes a grupos


e subgrupos de classificação de acordo com suas classes de cobertura dominantes se
faz necessário em processos de interpretação de imagem, e podem ainda auxiliar na
geração de mapas para importantes estudos geoambientais.

Classificação supervisionada e não supervisionada

A classificação de imagens pode ser dividida em duas categorias: a supervisionada, a


qual é realizada por meio de um classificador que precisa ser previamente treinado para
realizar tal procedimento; e a classificação não supervisionada, que não necessita de
um treinamento prévio, mas utiliza um algoritmo de identificação.

Classificação supervisionada

Este tipo de classificação demanda de um usuário, o classificador, que supervisiona


a área a ser classificada tomando conhecimento dela, especificando os aspectos e as
características da área e dos vários de tipos de elementos naturais existentes na cena.

Na realização do processo, são separadas algumas amostras como forma de representação


de cobertura já conhecidas. Este método pode ser chamado de treinamento, no qual o

83
UNIDADE IV │ INTRODUÇÃO AO PROCESSAMENTO DE IMAGENS

classificador utiliza um padrão de comparação, ou uma chave de interpretação, para


descrever as características das áreas a serem classificadas. Após isso, cada pixel do
conjunto de dados da imagem será comparado com cada classe já existente e depois,
classificado de acordo com a classe comparada.

Este método se dá inicialmente por um conhecimento prévio da área ou região de


estudo, adquirido pelo classificador, através de trabalhos em campo, interpretação de
imagens de satélite ou mesmo por experiência de trabalhos anteriores.

Para seu total sucesso, este método se divide em 3 passos:


1. Treinamento: consiste numa área da imagem que servirá de treinamento
em que um usuário ou classificador identifica como atributo espectral, ou
ainda, representante de cada classe de cobertura.

2. Classificação: é a identificação do pixel e função de sua semelhança a


características ou não de alguma classe de cobertura. Se o pixel não
corresponder a nenhuma classe, ele será considerado como “desconhecido”.

3. Resultado: são os produtos gerados da classificação dos elementos da


imagem digital ou mapa. Podem ser mapas temáticos, tabelas com dados
cadastrais e estatísticos, dentre outros.

Dentre as técnicas utilizadas para a classificação supervisionadas, temos o método da


mínima distância e o da máxima verossimilhança.

No método da mínima distância, o classificador tem o papel de examinar as distâncias


existentes entre um pixel desconhecido e compará-lo com as médias das classes
considerando duas bandas para o procedimento, para então atribuir este pixel
desconhecido ao ponto médio de cada classe. Se após o cálculo a distância do pixel for
maior que a distância de todas as classes categorizadas pelo analista, quer dizer que
este pixel será classificado como desconhecido.

Este é um dos métodos mais simples e eficiente, porém, ele possui algumas implicações,
como a forte influência causada pela variabilidade dos dados espectrais. Por isso, este
método não é muito utilizado quando se tem classes espectrais próximas umas das
outras, o que provoca grande grau de variação.

Já o método da máxima verossimilhança, consiste na avaliação quantitativa da variância e


covariância do comportamento dos padrões espectrais durante o processo de classificação
de cada pixel.

Como valores de respostas, os padrões podem apresentar vetores de médias e ainda


uma matriz covariante. Matematicamente, podemos calcular se um determinado pixel
pertence a uma determinada classe de cobertura do solo ou não.

84
INTRODUÇÃO AO PROCESSAMENTO DE IMAGENS │ UNIDADE IV

A única desvantagem que acompanha este método é a demanda de alto custo para
realizar a classificação de todos os pixels de uma imagem. Caso haja um alto número de
bandas a serem classificadas, torna-se um método muito eficiente e fiel às informações
reais das feições apresentadas ou informações precisas.

Classificação não supervisionada

Este método se diferencia do outro por não possuir um treinamento específico para
então realizar a etapa de classificação.

Neste método, a classificação consiste primeiramente no agrupamento (clustering)


dos pixels submetidos por um algoritmo que permite o agrupamento por possuírem
características comuns de determinada região, área ou feição espacial. Então, o analista
irá identificar este grupo espectral conforme comparação das classes de uso do solo
com os dados pictoriais.

Atualmente, com o desabrochar da era tecnológica e o desenvolvimento de modernas


máquinas computacionais, este método tem despertado interesses em muitos
pesquisadores das mais diversas áreas de atuações, justamente por sua aplicação de
grandes amostragens pictoriais em uma imagem, e por apresentar características
semelhantes entre eles.

Uma imagem de satélite pode apresentar diferentes níveis de cinza com características
espectrais e refletâncias inerentes às diferenças dos níveis de cinzas, devido as suas
propriedades de emissão de energia. A partir dessas diferenças podemos definir tipos
de classes espectrais contidas numa imagem.

Considerando os níveis de cinzas de uma imagem, podemos agrupá-los para que formem
um conglomerado ou clusters. Estes grupos de pixels obteriam, então, comportamento
espectral específico e homogêneo, podendo definir na imagem várias classes de
interesse, já que se tratam de semelhanças entre eles.

De acordo com Chuvteco (1990), este processo segue 3 passos:

»» Seleção das variáveis que interferem na análise.

»» Seleção de um critério em que se possa medir a distância de cada caso.

»» Seleção de um critério com a finalidade de reagrupar os casos similares.

As variáveis deste processo seria então a seleção das bandas para as devidas classificações.
E os casos descritos nos processos seriam os pixels da imagem, os quais seriam definidos
por um determinado vetor, em que seu tamanho não seria o número de bandas para análise.
85
UNIDADE IV │ INTRODUÇÃO AO PROCESSAMENTO DE IMAGENS

Este método consiste em encontrar grupos de pixels homogêneos entre si e representá-los


depois por meio de um gráfico. Por este gráfico, seriam levantados valores variados de
pontos e de pixels de acordo com cada nível de cinza de cada banda espectral.

Para esta delimitação, são definidos dois critérios, um para medir as semelhanças existentes
entre os pixels e outro para demarcar as condições de cada processo de agrupamento dos
pixels aos níveis de cinza.

Mosaico de imagens de satélites


Determinar a área de estudo é um importante seguimento para se realizar uma análise
ou pesquisa. Muitas vezes, a área de estudo é bem maior que uma imagem ou uma cena
disponibilizada por um satélite e é aí que entra a necessidade de se fazer um mosaico
de imagens de satélite.

A principal finalidade do mosaico de imagens é fornecer uma imagem bem maior da


área que se quer estudar. Para que isso aconteça, é preciso juntar duas ou mais imagens,
ou cenas, para formar a imagem completa da área de estudo.

Desta maneira, o que se tem é uma visão muitas vezes melhorada em função da junção
das imagens e dos níveis de ajustes encontrados neste processo como ferramenta para
melhor visualização da imagem completa.

Em fotografias aéreas também funciona do mesmo jeito; as imagens podem ser juntadas
para formar uma só por meio de um mosaico.

Este processo de juntar imagens para formar um mosaico acontece em duas fases: no
registro de imagens e na operação de blending.

Muitas vezes, no processo de mosaicar as imagens, ocorrem problemas na área de


transição entre uma e outra, tornando a imagem completa desajustada. Ao notar que
os valores de níveis de cinza forem diferentes, será necessário determinar e distinguir
outros valores para suavizar os desajustes ocorridos nas imagens.

Para solucionar esses problemas de interferência entre as imagens utilizamos o método


blending, que determina os valores de cinza nas áreas de interferência e sobreposição
das imagens.

Outro método bastante utilizado é o da média ponderada que consiste em ponderar os


níveis de cinza dentro das áreas de sobreposição.

Há, no entanto, casos em que mesmo com todos estes métodos fracassam. Este é um
problema que pode ocorrer por vários fatores como a diferença de resolução entre as

86
INTRODUÇÃO AO PROCESSAMENTO DE IMAGENS │ UNIDADE IV

imagens, o registro inadequado, diferenças de texturas, linha de corte desajustada,


entre outros.

Para a confecção do mosaico de imagens, é de fundamental importância que as imagens


estejam todas georreferenciadas e com precisão próxima uma da outra. Sem o devido
registro das imagens não há possibilidade de mosaicar, pois não há referência geográfica
associada a elas.

Procedimentos práticos
Além dos procedimentos práticos, referentes ao georreferenciamento de imagens,
anteriormente colocados, vamos realizar também outros procedimentos que são de
suma importância na prática do processamento digital de imagens, tais como:

»» Aquisição de imagens.

»» Composição de bandas.

»» Construção de mosaicos.

»» Classificação (aquisição de automática ou semiautomática de feições).

Aquisição de imagens
Para esta etapa de aquisição de imagens, utilizaremos o portal do INPE para baixar as
imagens do Satélite Landsat – 8.

Primeiramente, é necessário acessar a página http://www.dgi.inpe.br/CDSR/ e no


menu da parte superior da tela, escolher a opção “Cadastro’.

Após se cadastrar e fazer o login na pagina do INPE na opção “Entrar”, vamos proceder
da seguinte forma:
Figura 36. Página INPE.

Fonte: INPE.

87
UNIDADE IV │ INTRODUÇÃO AO PROCESSAMENTO DE IMAGENS

Passo 1 – na opção Satélite, escolha o Landsat 8. Imediatamente uma nova página de


redirecionamento será aberta para a aquisição da imagem desejada.

O próximo passo será a escolha da imagem (ou cena) que irá atender a nossa necessidade
conforme o trabalho que estivermos executando. Na próxima ilustração, as opções
disponíveis para a escolha do local da imagem serão por Parâmetros Básicos, Órbita e
Ponto, Municípios, Região e Interface Gráfica.

A opção mais comum entre os usuários é a determinação do local por indicação da Órbita
e Ponto. A Órbita é a passagem do satélite sobre o território brasileiro, executando um
sequência de tomadas de pontos fotografados ao longo de 26 órbitas sobre território.

A sistemática da nomenclatura se dá primeiramente com a informação referente à


Órbita e depois o Ponto. Tomemos como exemplo a Órbita Ponto 233/66, a numeração
233 refere-se à Órbita do satélite enquanto que a numeração 66 refere-se ao Ponto.

A Órbita segue uma linha diagonal sobre o continente, enquanto que o Ponto está
sistematizado em uma sequencia horizontal.

Na ilustração a seguir, está exemplificado a disposição espacial de cinco órbitas, ambas


na diagonal, e quatro Pontos ambos na horizontal, com suas respectivas identificações.

Figura 37. Órbitas Landsat.

Fonte: INPE.

Após os esclarecimentos referentes à sistemática de Órbitas e Pontos, vamos dar


prosseguimento a aquisição da imagem pelo catálogo do portal do INPE. Na página
para fomos redirecionados, vamos proceder da seguinte forma.

88
INTRODUÇÃO AO PROCESSAMENTO DE IMAGENS │ UNIDADE IV

Figura 38. Escolha das Órbitas.

Fonte: INPE.

Passo 1 – é preciso escolher qual a Órbita e qual o Ponto da Órbita da qual se deseja
adquirir uma determinada imagem (ou cena). Como exemplo, iremos utilizar a Órbita
233 e o Ponto 66.

Observe que há uma repetição de informação no passo 1, isso ocorre porque


para essa atividade só iremos utilizar uma cena, caso fossemos utilizar mais de
uma Órbita ou Ponto, os colocaríamos conforme a sua abrangência.

Passo 2 – após preencher os valores de acima mencionados, escolhemos a opção listar para
que o catálogo nos mostre quais as cenas existentes nas diferentes passadas do satélite.

Figura 39. Escolha das imagens (cenas).

Fonte: INPE.

89
UNIDADE IV │ INTRODUÇÃO AO PROCESSAMENTO DE IMAGENS

Passo 1 – após pedir para que seja listada todas as cenas da Órbita e Ponto escolhidos,
na aba de resultados surgirá todas as cenas referentes às passadas do satélite, bem
como as suas respectivas datas. Depois de escolhida a cena desejada, clica-se na opção
“Carrinho”, próximo a cena que foi escolhida.

Passo 2 – na parte superior da tela, novamente deve-se clicar na opção “Carrinho” onde
está informado qual foi a cena de sua escolha. Caso o operador queira baixar diversas
cenas, ele o faz repetindo por diversas vezes o passo 1 dessa ilustração, executando o
passo 2 somente após ter finalizado todas as escolhas.

Figura 40. Efetuando o pedido.

Fonte: INPE.

Passo 1 – após executar o passo 2 da ilustração anterior, uma caixa de diálogo se abre
perguntando se o operador deseja “Prosseguir” ou “Suprimir” alguma cena anteriormente
escolhida. Seguindo nosso exemplo prático, escolheremos a opção “Prosseguir”.

90
INTRODUÇÃO AO PROCESSAMENTO DE IMAGENS │ UNIDADE IV

Passo 2 – após prosseguir com o pedido, uma mensagem informa que o pedido será atendido
e que a cena será enviada via e-mail, logo após que clicar na opção “Fechar Pedido”.

Feito esse procedimento, a cena escolhida será enviada no e-mail, compartimentada


conforme as bandas do satélite, sendo necessário para isso, realizar a composição de bandas.

Composição de bandas

Para realizar a composição de bandas das imagens baixadas no item anterior, faremos
novamente o uso do software QGIS, seguindo os seguintes passos.

Figura 41. Opções de composição.

Fonte: próprio autor.

Passo 1 – após abrir o software QGIS Desktop, o primeiro passo é escolher a opção
“Raster” na aba de menu superior.

Passo 2 – escolher a opção “Miscelânea”.

Passo 3 – escolher a opção “Mosaico”.

Após executar esses procedimentos, o QGIS irá lhe oferecer a opção de mesclar (mesma
função de composição) as bandas das cenas que foram baixadas do catálogo do portal
do INPE, podendo ser utilizada a sequencias RGB em 6,5 e 4, ou 3,2 e 1, ou 4,3 e 2 ou
qualquer outra que venha a atender a necessidade do trabalho em questão.

91
UNIDADE IV │ INTRODUÇÃO AO PROCESSAMENTO DE IMAGENS

A seguir iremos executar os procedimentos para a realização da composição das bandas


6, 5 e 4 das imagens anteriormente baixadas.

Figura 42. Funções do compositor.

Fonte: próprio autor.

Passo 1 – escolha quais serão os arquivos de entrada, que no caso serão as cenas da
banda 6, 5 e 4, respectivamente nessa ordem.

Passo 2 – encontrar qual a pasta/diretório onde as cenas estão salvas e selecioná-las na


ordem correta.

Passo 3 – escolher qual será o diretório destino para a imagem que seja composta pelas
bandas acima escolhidas.

Passo 4 – escolher a opção de bandas separadas para os arquivos que serão compostos.

Passo 5 – escolher a opção de criação padrão.

Por fim, após clicar em “OK”, o software executará os comandos e a imagem com as
bandas já compostas será carregada na tela.

Construção de mosaicos

Para a construção do nosso mosaico de cenas, iremos novamente utilizar o software


livre QGIS, executando para isso os seguintes procedimentos.

92
INTRODUÇÃO AO PROCESSAMENTO DE IMAGENS │ UNIDADE IV

Figura 43. Opções de mosaico.

Fonte: próprio autor.

Passo 1 – primeiramente, vá ao menu “Adicionar Camada Raster” e abra duas imagens


vizinhas, as quais utilizaremos para construir nosso mosaico. Nesse exemplo, estamos
utilizando duas imagens; porém, caso seja necessário, pode-se utilizar quantas forem
necessárias.

Passo 2 – na barra de menu, na parte superior da tela, escolha a opção “Raster”.

Passo 3 – escolha novamente a opção “Miscelânea”.

Passo 4 – escolha a opção “Construir Raster Virtual”.

Esse procedimento adotado para criar mosaico e trabalhar com várias imagens,
juntando-as em um só arquivo, por meio da ferramenta de Raster Virtual, se dá pelo
fato da simplicidade e da rapidez de sua operação.

Por meio tradicional, o procedimento demanda de um tempo maior para sua execução,
bem como o espaço ocupado pelo tamanho do arquivo gerado é bem maior.

Tendo executado os quatro passos da ilustração anterior, prossigamos para a próxima


etapa realizando os seguintes procedimentos.

93
UNIDADE IV │ INTRODUÇÃO AO PROCESSAMENTO DE IMAGENS

Figura 44. Funções do raster virtual.

Fonte: próprio autor.

Passo 1 – escolha a opção “Usar Camadas Rasters Visíveis para a Entrada”. Esta opção
vai trabalhar com as imagens que estão visíveis na tela do seu projeto.

Passo 2 – escolha a opção “Nenhuma Fonte de Dados” e deixe com o valor ZERO.
Essa função elimina as bordas de cor escura que emolduram as imagens.

Passo 3 – selecione qual será a pasta de destino para o arquivo que será criado.

Depois de ter executado os três passos acima descritos, para finalizar o procedimento
de criação do mosaico na forma de Raster Virtual, basta clicar na opção “OK”.
Na sequência, o arquivo já será carregado de forma automática na tela de trabalho.

Caso queira transformar o arquivo de Raster Virtual em imagem, basta clicar com o
botão direito do mouse sobre o nome do arquivo que estará nas camadas de informação
do lado esquerdo da tela, e pedir para “Salvar Como” e escolher o formato “GeoTiff”.

Classificação de imagem (aquisição automática


ou semiautomática de feições)

A classificação de imagem, conforme já estudamos nos itens anteriores, divide-se em


automática ou não supervisionada e semiautomática ou supervisionada. Ou seja, a
aquisição das feições pode ser executada mediante a influência do operador ou não.

Para esse procedimento prático, iremos executar um procedimento de classificação


supervisionada a partir de uma imagem Landsat 8, em que os parâmetros de aquisição
serão estabelecidos pelo operador.

Dessa forma, vamos seguir os seguintes passos a seguir.

94
INTRODUÇÃO AO PROCESSAMENTO DE IMAGENS │ UNIDADE IV

Figura 45. Instalação do complemento de classificação.

Fonte: próprio autor.

Passo 1 – com o QGIS aberto e já com a imagem carregada (não é necessário que a
imagem esteja aberta para instalar o complemento), vá até o menu da barra superior
da tela do projeto.

Passo 2 – clique na opção “Gerenciar e Instalar Complemento”.

Passo 3 – já com a interface de complementos aberta, vá até o espaço de busca e digite o


nome do complemento que será instalado para essa atividade, denominado “dzetsaka”.

Passo 4 – na sequência, clique sobre o nome do complemento.

Passo 5 – escolha a opção “Instalar Complemento”.

Agora que o complemento já está instalado, podemos dar início a nossa atividade prática
de classificação supervisionada de imagem. Dessa forma, seguiremos os passos a seguir.

Figura 46. Procedimentos para a classificação.

Fonte: próprio autor.

95
UNIDADE IV │ INTRODUÇÃO AO PROCESSAMENTO DE IMAGENS

Passo 1 – observar a presença da ferramenta de classificação na aba superior do menu do


projeto em aberto e ativá-la para que ela apareça no espaço das camadas de informação
do lado esquerdo da tela de trabalho.

Passo 2 - para que a ferramenta funcione, é necessário que se crie um arquivo shapefile
com feições pré-definidas, para orientar a ferramenta de classificação durante o
processamento.

Em sua tabela de atributos, é necessário que se crie duas colunas: uma relacionada a
Classe e outra relacionado ao tipo da feição.

Quadro 2. Atributos para classificação.

Classe Tipo
1 1 Desmatamento
2 2 Floresta
3 3 Rios e Lagos

Fonte: próprio autor.

Passo 3 – a imagem na qual se quer extrair informações a partir da classificação


supervisionada, já deverá estar disponível nas camadas de informação.

Passo 4 – a partir do shapefile já criado e mencionado no passo 2, deve-se criar


polígonos que represente de forma a exemplificar quais as áreas a serem adquiridas
categoricamente. Ou seja, cria-se um polígono sobre uma área de floresta e na tabela de
atributos a classifica como sendo de Classe 2 e do Tipo Floresta. Cria-se um polígono
sobre uma área desmatada e a classifica na tabela de atributos como sendo de Classe 1
e do Tipo Desmatamento, e assim sucessivamente.

Dependendo da quantidade de elementos presentes na imagem, bem como a sua


variação de rugosidade, textura e cor, pode-se criar quantas feições vetoriais forem
necessárias.

Passo 5 – já na parte da ferramenta de classificação, deve-se observar se o arquivo


raster que se deseja extrair informação é de fato o que está selecionado no classificador.

Passo 6 – deve-se observar se o arquivo vetorial que irá prestar subsídio para a classificação,
fazendo o papel de chave de interpretação, está de fato selecionado no Classificador.

Passo 7 – nessa opção, o operador vai escolher qual informação da tabela de atributo
será utilizada como parâmetro de classificação. Como na tabela de atributos existem
duas colunas, uma com números (classe) e outra com letras (tipo), deve-se usar sempre
a que possui informação numérica, que no caso será a coluna classe.

96
INTRODUÇÃO AO PROCESSAMENTO DE IMAGENS │ UNIDADE IV

Passo 8 – feitos todos os procedimentos descritos, para iniciar o processamento de


classificação, basta clicar na opção “Perform the Classification” que em português
significa iniciar a classificação.

Como resultado, a ferramenta irá observar as características presente dentro de cada


polígono criado pela camada vetorial que foi importada para o QGIS, e a partir daí
delimitará todas as áreas homogêneas as características dos polígonos apontados.

Como resultado, a ferramenta de classificação criou um arquivo raster com duas


informações (conforme as informações inseridas por meio do arquivo shapefile,
apontando desmatamento e floresta) uma com as áreas desmatadas em uma cor e
outra com as áreas florestadas representadas por outra cor.

Figura 47. Resultado da classificação.

Fonte: próprio autor.

O resultado apresentado acima, mostra na cor cinza as áreas desmatadas, na cor preta
as áreas com florestas e na cor branca as áreas com capoeira e/ou em regeneração.

Para melhorar ainda mais a qualidade do resultado, é possível utilizar a ferramenta de


filtro disponibilizada nas opções de Raster do QGIS.

Para quantificar quanto de floresta foi desmatado ou quando ainda está preservado, por
exemplo, é possível realizar a conversão de raster para vetor nas opções de Raster do
QGIS e, dessa forma, elaborar mapas e legendas com resultados mais precisos.

97
Aeronaves
Remotamente Unidade V
Pilotadas
Figura 48.

Fonte: <www.drone-expert.co.uk>. Acesso em: 18/11/2016.

Capítulo 1
Definições

Em algum momento, seja saindo para dar um passeio, ou em casa mesmo ao observar
o céu, já vimos algum objeto voador sobrevoando áreas como se estivessem observando
e registrando tudo ao seu redor. O que antes parecia ser uma brincadeira sabe-se hoje
que o Drone é um equipamento que pode ser usado para várias funções e está longe de
ser considerado apenas um “brinquedo”.

Os Drones são um tipo de aeronaves remotamente pilotadas com alta tecnologia,


muitas vezes assemelhando-se a aeronaves tripuladas, e são muito conhecidos como
VANT – Veículos Aéreos não Tripulados, no Brasil, o termo mais conhecido é o RPAS –
Remotely Pilotes Aicraft Systems, ou Sistemas de Aeronaves Remotamente Pilotados.

A tecnologia que os Drones comportam tem sido alvo de muitas especulações e, por
esse motivo, é considerada por muitos como uma tecnologia disruptiva, o que significa
que este tipo de tecnologia pode substituir outra já existente.
98
Aeronaves Remotamente Pilotadas │ UNIDADE V

Quem está constantemente antenado nas inovações tecnológicas já deve ter se perguntado
sobre a diferença entre um VANT e um DRONE. Anteriormente, descobrimos que
VANT diz respeito aos Veículos Aéreos não Tripulados, mas e o Drone?

Pois bem, a palavra Drone certamente não é brasileira; provém da língua inglesa que
significa Zangão. O Termo Drone ou “Zangão” não é exatamente um nome técnico dado
a objetos voadores pilotados remotamente, mas faz referências a esses objetos, sendo
muito utilizada para fins comerciais.

Na verdade o Drone é considerado um VANT por ser um objeto em que se assume


o controle remotamente, ou ainda, um Veículo Aéreo não Tripulado. Os VANTS
geralmente produzem um ruído parecido com o de um Zangão, daí o termo Zangão
empregado aos Drones.

Figura 49. Representação comparativa entre um Zangão e um Drone.

DRONE
Fonte: Adaptação do autor.

Dessa forma, agora sabemos que o VANT também conhecido internacionalmente


como Unmannaed Aerial Vehicle – UAV é o nome que descreve todo e qualquer tipo de
aeronave que não precisa de um piloto a bordo para ser controlada.

E, portanto, essas aeronaves são controladas por meio de controles eletrônicos a


distância e de computadores sob a supervisão de um operador, ou ainda por meio
Controladores Lógicos Programáveis (PLC).

Origem dos VANTS


Como já vimos anteriormente, no campo do Sensoriamento Remoto, os VANTS surgiram
na época da Segunda Guerra Mundial, quando eram utilizadas câmeras fixadas em
pássaros, como estratégia para capturar informações do território inimigo.

Segundo Medeiros (2007), na década de 1880 o inglês Douglas Archibald teve a ideia
de instalar um anemômetro em um fio numa “pangorda” com a intenção de medir a
velocidade dos ventos em diferentes níveis de altura até chegar a altura de 1.200 pés.
99
UNIDADE V │ Aeronaves Remotamente Pilotadas

Na mesma década, em 1888, relata-se que o francês Arthur Batut conseguiu amarrar
uma máquina fotográfica em uma pipa com o objetivo de registrar informações aéreas.
A partir de então foi registrado o primeiro voo aerofotográfico.

Figura 50. Na imagem da esquerda vemos Arthur Batut ao lado de sua “pipa gigante”, imagem à direita.

Fonte: <https://sites.google.com/site/andreaeducopedia/a-importancia-da-pipa-na-historia>. Acesso em: 18/11/2016.

No ano de 1935, o inglês ator e aviador, Reginald Denny, projetou e colocou em


funcionamento o primeiro veículo aéreo não tripulado chamado de RP-1 ou RPV –
Remote Piloted Vehicle. A partir desta década, as buscas pelo aperfeiçoamento desses
veículos foram tão intensas que nos anos que se seguiram surgiram inovações como os
protótipos seguintes ao RP-1, o RP-2 e o RP-3.

Outros protótipos surgiram em 1939 como o RPV-4 em que na época era o mais avançado
em termos tecnológico de todos os outros RPV’s. Por este motivo, o exército dos Estados
Unidos adquiriu 53 unidades desses objetos colocando-lhes o nome de OQ-1.

De acordo com Hardgrave (2005), os ensaios dos RPV’s não haviam parado. E, em
dezembro de 1941, inovações aéreas desses objetos estavam sendo realizadas a todo
vapor com o objetivo de aperfeiçoar a tecnologia dos modelos.

Ao tempo em que continuavam a produção e aperfeiçoamento dos RPV’s, em 1938,


uma companhia Alemã chamada Ruhrstahl, já havia iniciado o desenvolvimento de
100
Aeronaves Remotamente Pilotadas │ UNIDADE V

bombas que eram guaiadas por planadores denominados de “Fritz X”. Esses planadores
funcionavam com um motor de foguete e tinham a capacidade de carregar 300 kg de
carga explosiva em ataques aéreos de navios couraçados.

Figura 51. Imagem de uma Fritz X logo após o disparo.

Fonte: <http://sistemasdearmas.com.br/pgm/asvintro.html>. Acesso em: 18/11/2016.

A Fritz-X foi usada pela primeira vez no dia 9 de setembro de 1943, em 11 ataques
contra a frota de couraçados Roma, Itália e Vittorio Veneto, sendo que o couraçado
Roma foi atingido duas vezes, perfurando e partindo o navio ao meio.

Figura 52. Imagem real do ataque da Fritz-X ao couraçado Roma em 9 de novembro de 1943.

Fonte: http://sistemasdearmas.com.br/pgm/asvintro.html.

101
UNIDADE V │ Aeronaves Remotamente Pilotadas

Outro evento que marcou a história dos VANT’s, segundo Silveira (2005), foi a guerra
do Líbano ocorrida em 1982 no Vale do Bekaa. Nesse ano, Israel invadiu o Líbano e
destruiu 16 baterias antiaéreas sírias ao fazer o reconhecimento de parte de seu território
com objeto voador não tripulado.

Em meados de 2002, durante a guerra do Afeganistão, um veículo aéreo não tripulado


americano se tornou muito conhecido, o “Predator”, o qual ficou registrado na história
como o primeiro exemplo de utilização real de um VANT em combate com capacidade
de lançamento de míssil.

Os primeiros indícios de VANT’s no Brasil ocorreram em 1980 com o desenvolvimento


do projeto Acauã PD-IPD-8408 pelo Centro Tecnológico Aeroespacial (CTA). Este projeto
objetivava a implantação de uma plataforma de ensaio de voos preliminares (“test bed”)
com avanços no campo eletrônico dos equipamentos de controle, comando e telemetria.
O projeto consistia na utilização de um sistema mais avançado de rádio-controle de
aeronaves, com ensaios preliminares dos modelos para identificar as melhorias que
seriam feitas nos sistemas de transmissão. O projeto contava ainda com a aquisição de
um piloto automático nos seguintes modelos.

Outros objetivos haviam sido traçados pelo projeto como o desenvolvimento de um tipo
de VANT que tivesse potencial em aplicações militares por meio do reconhecimento do
território a uma baixa altitude, assim como inovações na operacionalização de radares
e sensoriamento de recursos naturais.

O Brasil, atualmente tem investido em grandes projetos com o desenvolvimento de


VANT’s por meio dos institutos de pesquisas e estudos tecnológicos CTA e Centro de
Pesquisas Renato Archer (CenPra). Um exemplo é o CenPra de Campinas que trabalha
no desenvolvimento do Projeto Aurora (Autonomous Unmanned Remote Monitoring
Robotic Airship), iniciado em 1997 e tem como principal objetivo estabelecer tecnologia
semiautônoma de veículos robóticos aéreos, utilizados para fins de estudos na área
climatológica, ambiental e o monitoramento de biodiversidade.

Assim como o CenPra, a Universidade de São Paulo (USP), de São Carlos, em parceria
com a Embrapa, trabalha com o Projeto ARARA (Aeronave de Reconhecimento
Assistida por Radio e Autônoma), que consiste no desenvolvimento e aperfeiçoamento
de VANT’s de escala reduzida, com a intenção de realizar missões e registrar fotografias
e imagens aéreas do terreno para fins de monitoramento agrícola e ambiental.

O principal objetivo do Projeto ARARA é a substituição de aeronaves convencionais –


tripuladas – as quais ainda são geralmente utilizadas na obtenção de imagens aéreas,
por modelos pequenos de VANT’s em que o tamanho de suas asas tenha cerca dois

102
Aeronaves Remotamente Pilotadas │ UNIDADE V

metros de comprimento, e sejam completamente autônomos. Este projeto é dividido


por quatro fases. Vejamos quais são elas.

Fases do Projeto Arara

1. Esta fase do projeto já foi concluída. Nesta fase, foi desenvolvido um


modelo de aeronave convencional em que eram testados controles de
voos num raio de 1 km a partir da superfície terrestre. Esses modelos
carregavam uma câmera fotográfica que era adaptada para disparar por
um comando via rádio.

2. A segunda fase do Projeto, ainda não concluída, inclui a construção de


um aeromodelo de Rádio Controlado – R/C, o qual possuirá uma ampla
variedade de vários tipos de sensores usados para controle de voo como
o velocímetro, GPS, altímetro, giroscópio, bússola e instrumentos que
permite o controle do aeromodelo sem que ele seja acompanhado a partir
do solo visualmente. As imagens adquiridas por este aeromodelo serão
geradas através de duas câmeras integradas em seu sistema.

3. Na terceira fase, serão incluídos no aeromodelo dois sistemas automáticos


de grande importância: o sistema de navegação e o sistema de controle.
Com esses sistemas o operador terá a vantagem de traçar uma rota de voo
e até mesmo missões como filmar e fotografar uma aera específica.

4. A quarta e última fase consiste na operação de todos os sistemas


desenvolvidos anteriormente, mas desta vez, com um componente a
mais: um poderoso sistema de processamento de imagens, permitindo
que sejam realizadas missões totalmente autônomas.

Uma empresa criada em 2002 especializada em desenvolver tecnologias para a


aerofotogrametria e sensoriamento remoto, a AGX Tecnologia Ltda. utiliza a tecnologia
ARARA com objetivo comercial no Brasil com novas versões de veículos aéreos não
tripulados, agora, compostos de fibra de vidro e alumínio aeronáutico. Esses VANT’s
possuem aproximadamente 2,3 metros de comprimentos e são equipados com um
motor de 4,8 cv de potência que funciona com um tanque comportando 40 cm³ de
gasolina.

Medeiros (2007) afirma que as pesquisas e o desenvolvimento tecnológico nessa área


aqui no Brasil ainda são recentes, sendo que os trabalhos em que se mais utilizam
essa tecnologia aérea se dá em aplicações civis, como monitoramento e controle de
queimadas, acompanhamento de safra e vigilância policial de áreas urbanas.

103
UNIDADE V │ Aeronaves Remotamente Pilotadas

Figura 53. VANT brasileiro Tiriba um dos modelos da AGX Tecnologia Ltda.

Fonte: <http://mundogeo.com/blog/2013/09/19/pioneira-em-drones-no-brasil-agx-e-comprada-pela-transpreserv/>.
Acesso em: 21/11/2016.

Breve evolução dos VANT’s no tempo


A seguir, temos um quadro em que podemos conhecer um pouco mais sobre a evolução
dos VANT’s ao longo dos tempos.

Quadro 3. Histórico dos VANTS.

Nesse ano, foram introduzidas aeronaves de serviço militar em que balões já eram utilizados. Outro ponto importante é a captura de
1915
imagens aéreas pelas Forças Armadas da Grã-Bretanha gerando mais de 1.500 mapas aéreos.
1939 Início da Segunda Guerra Mundial. Estados Unidos produzem o primeiro avião de controle remoto.
1973 Israel desenvolve seu primeiro VANT.
Contratos são feitos entre o Pentágono e a Genereal Atomics, na produção de drones militares para os EUA. Produzido o Predator, um
1994
dos VANT’s mais utilizados pelos militares.
2000 Predator faz as primeiras missões na caçada a Osama Bin Laden.
Predator evolui e ganha câmeras de monitoramento de vigilância e mísseis, autorização dada pelo Pentágono. Alguns relatórios
2009
elaborados pelos produtos do Predator apontam 957 civis mortos em operações no Paquistão desde 2004, entre eles, 200 crianças.
Amazon propõe utilização de drones para entregas, drones médicos são utilizados na África, programas de proteção à vida selvagem
2014
passam a ocorrer.
2015 Estados Unidos libera pequenos drones para atividades comerciais, com a restrição de estarem na área de visão do piloto.
2016 Os drones são comercializados em larga escala no Brasil para fins diversos, já com regulamentação preliminar da ANAC.

Fonte: próprio autor.

Tipos de Veículos Aéreos Não Tripulados


Sabemos que embora os Veículos Aéreos não Tripulados possuam formas de voar
diferentes, eles embarcam a mesma tecnologia. Esses objetos voadores são equipados
por controladoras de voo, ou seja, um computador que processa os sinais de entrada e
saída em sua interface.

Por sua vez, as controladoras de voo se constituem num conjunto de sensores com
capacidades de orientação espacial como o giroscópio, o acelerômetro e o magnetômetro,
que juntos cumprem o papel de estabilizar o voo da aeronave. Os outros componentes

104
Aeronaves Remotamente Pilotadas │ UNIDADE V

dos VANT’s são inteiramente conectados as controladoras de voos como é o caso de


alguns exemplos: os motores, o sistema de rádio, os sistemas de navegação, a telemetria
de voo, os controladores de velocidade – ESCs etc. Dependendo da marca e do modelo,
as controladoras podem ter muitos componentes.

Os sinais de entrada para a controladora é definido pelo conjunto TX – Transmissor /


RX – Receptor e rádio controle.

Esses veículos Drones e Vants possuem uma nomenclatura que geralmente é definida
pelas autoridades competentes, de nominada de RPAS – Remotely Aircraft Systems.
Esses objetos são classificados de acordo com seu tipo de uso, estrutura e categoria.

Desta maneira, os VANT’s são classificados em:

Quadro 4. Características VANTs.

Quanto ao seu emprego ou categoria Quanto aos tipos de uso específicos


»» Esporte e recreação. »» Uso militar.
»» Usos específicos. »» Alvos aéreos.
»» Mísseis de cruzeiro.
»» VANTs de reconhecimento e vants de combate.

Fonte: próprio autor.

Quadro 5. Uso e estrutura VANTs.

Quanto ao uso civil e comercial Quanto a sua estrutura


»» Agricultura de precisão. »» Asa fixa do tipo avião.
»» Mapeamento. »» Asa rotativa do tipo multirotor.
»» Monitoramento.
»» Consultoria Ambiental etc.

Fonte: próprio autor.

Usos dos VANT’S


Sabemos que nos dias atuais, podemos verificar uma infinidade de soluções oferecidas
por uma grande rede de mercados. Os VANT’s e os Drones ganharam seu espaço na mídia
e sempre estamos vislumbrando novas aplicações destes curiosos aparelhos voadores.

Os Drones são muito utilizados no mercado de filmagens aéreas e por agências de


propaganda e produtoras de vídeo. As emissoras de TV também vêm utilizando os
drones na produção cinematográfica de novelas, telejornais e também em algumas
transmissões que são feitas ao vivo.

105
UNIDADE V │ Aeronaves Remotamente Pilotadas

O cinema sempre utiliza novas técnicas para produção do mais diversos filmes e takes
para conseguirem cenas exclusivas. Assim, a complexidade desta área é definida pelos
valores dos serviços prestados e o quanto uma empresa está disposta a investir por
esses serviços.

Neste sentido, podem-se usar esses equipamentos voadores para as mais diversas
atividades, desde ao simples Hobby em filmar ou fotografar uma área até VANT’s ou
RPAS altamente sofisticados, no qual este último possui a vantagem de ter câmeras de
alta resolução o que diferencia muito no custo-benefício que podem oferecer.

Os mercados classificados de maior complexidade estão voltados às áreas das engenharias


e uso das geotecnologias, as quais são consideradas promissoras no uso dessa tecnologia.

A realização de aerolevantamentos demonstra que são recursos de vital importância


para este ramo de mercado, que se tornou mais atrativo e ao mesmo tempo interativo
com atividades como mapeamento de pequenas e grandes extensões de terreno do que
se fosse feitos com aeronaves tripuladas.

Vale lembrar que a rede de software expandiu trazendo softwares específicos, que
são aplicados para estes tipos de operações realizadas pelos dornes, podemos citar: o
Pix4D, Agisoft, Mencisoftware, PhotoScan e outros. Desse modo, o mercado passou a
se interessar mais por esses pequenos objetos voadores.

A tecnologia dos VANT’s possibilita outras inúmeras soluções como a produção de


Ortomosaicos, Cálculos de Volume e Modelagem 3D e Modelo Digital do Terreno.
Tais soluções podem ser utilizadas também de forma gerencial objetivando gerar
informações que levem a tomada de decisões.

A agricultura é um exemplo de que podemos utilizar VANT’s. Com eles, é possível avaliar
toda sua extensão de terras e área de plantio.

Os dados levantados por essas tecnologias dependendo da área pesquisada garantindo


informações suficientes para elaborar todo o planejamento de estudo, e assim, melhorar
seus processos nos próximos ciclos de produção.

Pontuamos alguns exemplos levando em consideração a aplicabilidade dos drones ou


VANTs:
»» Imagens: as imagens e fotografias registradas pelos VANT’s e drones
são adquiridas sem nenhum risco devido à radiação eletromagnética. Os
drones são muito utilizados para filmar e registrar fotos eventos como
casamentos, aniversários, eventos esportivos e em casos como o do
protesto ocorrido em São Paulo. Há outros casos em que se utiliza drones
106
Aeronaves Remotamente Pilotadas │ UNIDADE V

como, por exemplo, no acidente ocorrido em Fukushima, no Japão,


em que foi utilizado um T-Hawk (modelo de um drone) para conseguir
imagens dos reatores danificados.

»» Vigilância e monitoramento: os drones, além de sua aplicabilidade


em registrar informações como fotos e imagens, também são muito
eficazes no monitoramento de áreas, regiões e até eventos garantindo a
segurança e vigilância dos trabalhos realizados.

»» Monitoramento de furacões: com todos os avanços tecnológicos


dos drones e inúmeras possibilidades, foi criado um drone com a função
específica de monitorar furacões. Esse tipo de equipamento é lançado em
direção aos furacões permitindo-se registrar informações sobre eles e até
evitar desastres naturais.

»» Imagens submersas: um modelo de drone muito peculiar é o OpenRov,


utilizado para registro fotográfico, gravações e transmissão digital em
tempo real do fundo do mar. A vantagem deste tipo de drone é alcançar
pontos onde o ser humano ainda não conseguiu alcançar.

Figura 54. Imagem de um drone ligado a uma boia flutuante, com câmera e vídeo ao vivo. Foto Abrir Rov.

Fonte: <https://www.outsideonline.com/sites/default/files/styles/full-page/public/open-rov-trident-drone_h.jpg?itok=EPtPyC5t>.

»» Uso militar: o uso de drones em serviço militar é muito utilizado até hoje.
Sempre vemos os drones em noticiários ou na produção cinematográfica
de filmes, mostrando sua aplicabilidade.

Normatização
Aeronaves Remotamente Pilotadas são conhecidas no Brasil como VANTs que é a sigla
para Veículos Aéreos Não Tripulados. Já os Drones provêm do inglês que significa
107
UNIDADE V │ Aeronaves Remotamente Pilotadas

“zangão”. No entanto, de acordo com o Departamento de Controle do Controle do


Espaço Aéreo – DECEA, é preciso que se faça uma mudança de nomenclatura desses
termos, considerados obsoletos pela comunidade aeronáutica internacional.

Desta maneira, após uma extensa discussão, ficou definido pela Convenção sobre
Aviação Civil Internacional, que o termo correto para designar esse tipo de objeto é
Aeronave Remotamente Pilotada – ARP.

Vale ressaltar que há um consenso em relação à regulamentação deste tipo de aeronave.


Assim, em novembro de 2015 foi divulgada pelo DECEA uma resolução em que
regulamenta o setor de ARP, servindo como um guia de operacionalização e integração
dessas aeronaves com o espaço aéreo e aeródromos, compartilhando os com aeronaves
tripuladas.

Por este motivo, os trabalhos realizados referentes a estes aparelhos tecnológicos estão
sujeitos às mudanças dispostas na nova regulamentação. Portanto, a legislação acerca
das normas para o acesso por meios desses aparelhos ao Espaço Aéreo é de inteira
responsabilidade do DECEA, órgão central do Sistema de Controle do Espaço Aéreo
Brasileiro (SISCEAB).

Para entendermos essa regulamentação, é importante que saibamos primeiro as


premissas básicas para a utilização do espaço aéreo. De acordo com o DECEA, uma
aeronave é considerada como qualquer aparelho que possa sustentar-se no ar a partir
de seu funcionamento e reações.

As aeronaves que operam sem piloto a bordo são denominadas aeronaves não
tripuladas, enquanto que aparelhos pilotados por meio de uma estação de pilotagem
são considerados Aeronaves Remotamente Pilotadas (RPA).

De acordo com a regulamentação 415/DGCEA, as RPAs que não necessitam de piloto


abordo possuem importantes utilização apontando para questões técnicas necessárias
à integração do Sistema ao espaço aéreo para manter níveis de segurança de acordo
com a atividade aérea.

Devido ao fato dessas aeronaves não serem tripuladas, diversos estudos são realizados
na procura de inovações e soluções tecnológicas permitindo que sejam detectados
acidentes com RPAs.

Segundo o DECEA, ainda são levantadas muitas questões referente as faixa de


frequência em que as RPAs podem ser utilizadas, bem como as discussões acerca de sua
operacionalização confiável, com o objetivo de evitar falhas no sistema de pilotagem e
medidas de prevenção contra possíveis interferências.

108
Aeronaves Remotamente Pilotadas │ UNIDADE V

Como parte do procedimento de solicitação para devido uso do espaço aéreo, deverá ser
emitida uma documentação pelos órgãos reguladores para a utilização dos RPAs.

O código brasileiro de Aeronáutica tem previsto na seção II, artigo 114, que:

Nenhuma aeronave poderá ser autorizada para o voo sem a prévia


expedição do correspondente certificado de aeronavegabilidade que
só será válido durante o prazo estipulado e enquanto observadas as
condições obrigatórias nele mencionadas.

§ 1o São estabelecidos em regulamento os requisitos, condições e provas


necessárias para a obtenção ou renovação do certificado, assim como o
prazo de vigência e casos de suspensão ou cassação.

§ 2o Poderão ser convalidados os certificados estrangeiros de


aeronavegabilidade que atendam aos requisitos previstos no regulamento
de que trata o parágrafo anterior e às condições aceitas internacionalmente.

O termo aeronavegabilidade é entendido como a condição que uma aeronave possui para
operacionalização da função pretendida de modo seguro (operação de modo seguro).

A convenção de Chicago prevê, no seu artigo 31, que todas as aeronaves engajadas em
navegação internacional devem possuir um certificado válido de aeronavegabilidade.

De acordo com o artigo 8o, XXXI, da Lei no 11.182, de 27 de setembro de 2005, dispõe
que a competência para emissão de um Certificado válido de Aeronavegabilidade é da
ANAC, como Autoridade de Aviação Civil.

Também cabe à ANAC a avaliação quanto à necessidade de Certificação ou à emissão


de documento específico que a substitua. E, ainda, o Regulamento Brasileiro de
Homologação Aeronáutica (RBHA) 91 o qual dispõe “Regras Gerais para Operação de
Aeronaves Civis” determinando, em seu item 91.7, que:

» Nenhuma pessoa pode operar uma aeronave civil, a menos que ela esteja em
condições aeronavegáveis.

» O piloto em comando de uma aeronave civil é responsável pela verificação das


condições da aeronave quanto à segurança do voo. Ele deve descontinuar o
voo quando ocorrerem problemas de manutenção ou estruturais degradando a
aeronavegabilidade da aeronave.

Considerando que uma Aeronave Remotamente Pilotada é uma aeronave, um dos


requisitos necessários para usa-la no Espaço Aéreo Brasileiro é ter a documentação
específica de regulamentação, conforme apontam alguns órgãos reguladores, relacionando
109
UNIDADE V │ Aeronaves Remotamente Pilotadas

seu uso a uma categoria e a um propósito. Desta maneira, é possível utilizar um RPA sem
que haja conflitos de dúvidas frequentes.

Sistemas de comunicações

Segundo o DECEA, a comunicação dos RPAs com o operador são partes fundamentais
do aparelho devido às aeronaves não serem tripuladas. Desse modo, os enlaces de
comunicação podem ser de pilotagem, da carga útil ou de comunicação com o órgão ATS.

Relação de pilotagem

O enlace de pilotagem, ou relação de pilotagem, é a conexão estabelecida entre a ARP e


a estação de controle de pilotagem da aeronave responsável pela condução do voo.

Neste quesito, esse tipo de relação possibilita o controle da aeronave, incluindo a


telemetria para realizar a condução do voo remotamente. Essa relação de pilotagem é
dividia por duas categorias. São elas:

1. Uplink – a qual permite a mudança do comportamento e do status da


RPA, garantindo o domínio da pilotagem e a capacidade de interferir na
condução do voo a qualquer momento.

2. Downlink – indica ao piloto remoto, dados como a posição e localização


da RPA, com a finalidade de gerenciamento do voo.

De acordo com essas operações de relação de pilotagem, as RPAs podem ser classificadas
em:

»» Operação em Linha de Visada Rádio (RLOS) – consiste no enlace de


pilotagem ou ainda a ligação direta (ponto a ponto).

»» Operação Além da Linha de Visada Rádio (BRLOS) – consiste em


diversas situações em que o enlace de pilotagem não seja entre a Estação
de Pilotagem Remota e a ARP. Neste sentido, é estabelecido o enlace
eletrônico de forma indireta por meio de equipamentos como antenas
que repetem o sinal ou os satélites.

Enlace (relação) de carga útil

As RPAS geralmente carregam equipamentos como câmeras e sensores que armazenam


dados para depois serem coletados. Esses equipamentos são acoplados nas RPAs, o que
as tornam tão eficazes, por esse motivo elas são identificadas como sendo de carga útil.

110
Aeronaves Remotamente Pilotadas │ UNIDADE V

Independente do tipo de missão ou objetivo em que são utilizadas as RPAs, é de inteira


importância que o enlace de pilotagem esteja em excelentes condições para garantir
o gerenciamento e possíveis mudanças na direção do voo em qualquer momento da
pilotagem.

Um ponto importante que devemos mencionar é a responsabilidade do explorador/


operador em certificar o enlace da carga útil para se ter uma pilotagem em perfeitas
condições, conforme regulamenta a ANATEL.

Comunicação com o órgão ATS

Um bom piloto deve manter inteira comunicação com o Serviço de Tráfego Aéreo –
ATS, conforme regulamentam as regras em vigor, o mesmo serve para o controle de
aeronaves tripuladas.

Para ter orientações quanto às regras de uso das comunicações aeronáuticas, os pilotos
e exploradores deverão obedecer as normas preconizadas na ICA 10012 “Regras do Ar”
e na ICA 10037 “Serviços de Tráfego Aéreo”.

É importante frisar que outros canais de comunicação entre as RPAs podem ser firmados
pelas Cartas de Acordo Operacionais. Esse é um procedimento alternativo que depende
da análise de diversos fatores, estando sujeitos à autorização do Órgão Regional do
DECEA, responsável pela regulamentação e controle de utilização do Espaço Aéreo.

Com essas regulamentações, o desempenho da comunicação entre o operador e o RPA


é satisfatório. Estes enlaces devem ser seguidos a rigor permitindo sua integridade caso
haja interferências, sejam elas intencionais ou não.

Essa garantia que o piloto remoto possua para o domínio da pilotagem, diz respeito à
segurança de pilotagem, principalmente onde o ambiente emite radiação em frequências
saturadas, como nas grandes cidades.

A estação de pilotagem remota


De acordo com o DECEA, a Estação de Pilotagem Remota – RPS é o componente que
contém os instrumentos necessários à pilotagem das RPAs. Desta maneira, as funções
básicas das RPs deverão ser similares aos das aeronaves tripuladas.

No entanto, o tamanho, o formato e os componentes de qualquer RPS devem se


diferenciar de acordo com alguns aspectos como o tipo de operação (VLOS ou BVLOS),
o tipo de interface de controle, o número de RPS necessários para a condução do voo e
a localização da RPS (no solo ou embarcada).

111
UNIDADE V │ Aeronaves Remotamente Pilotadas

As estações de pilotagem remota devem fornecer aos operadores das RPAs, meios
necessários para o controle e o bom funcionamento da RPA. O que implica nas condições
de controles remotos, displays e alarmes, diferenciando-se das aeronaves tripuladas,
com a exigência para o controle remoto de RPA, o licenciamento necessário, assim
como requisitos técnicos para a devida certificação.

Categorias de RPS

As Estações de Pilotagem Remota – RPS podem ser divididas nas seguintes categorias:

BVLOS A – pilotagem direta

Esta categoria permite um alto nível de controle da RPA, possibilitando comandos


referentes aos pedais, manche e manetes de potência para atuar em superfícies de comando
ou remotamente. Vale dizer que o tempo e a atualização da transmissão de dados à RPA
nesta categoria são muito requeridos como a velocidade, a altura, dentre outros fatores.

BVLOS B – piloto automático

De outro modo, esta categoria prevê um menor controle da RPA, permitindo, no entanto,
o controle da velocidade e altitude, por exemplo. Assim, são menos exigentes do que aqueles
na categoria A, mas ainda assim devem atender aos requisitos de operacionalização.

BVLOS C – pilotagem por waypoint

Nesta categoria, há uma limitação referente ao piloto remoto de um controle de uma


RPA, onde uma rota de plano de voo só pode ser alterada com inserções de waypoints em
um voo programado. Mesmo que nesse sistema, uma RPA possua taxa de transmissão
e atualização ainda menor em comparação a categoria B, este sistema deverá cumprir
com os requisitos operacionais necessários de uma RPA.

VLOS – em linha de visada

Esta categoria se refere ao controle direto e remoto da RPA. É possível também o


emprego de automação, incluindo o controle por waypoints. Porém deve-se destacar
que esse controle “indireto” pode reduzir a capacidade do piloto remoto de reação em
tempo hábil em situações distintas.

Regras específicas para RPAS

Como já vimos anteriormente, as regras gerais para uso das RPAs, agora vamos conhecer
as regras específicas para os Drones. De acordo com o DECEA, uma aeronave só pode
112
Aeronaves Remotamente Pilotadas │ UNIDADE V

trafegar o Espaço Aéreo Brasileiro se tiver um certificado válido ou uma autorização


especial.

A capacidade que um RPA possui em detectar outros objetos é considerada uma função
muito importante, que por vezes, tem o objetivo de prever conflitos com outros objetos
em tráfegos aéreos. Essa capacidade está ligada a outros tipos de voos (VLOS, EVLOS,
BVLOS, RLOS, BRLOS, VFR e IFR).

Vale dizer que no momento do voo, uma RPA deverá manter certa distância do ponto de
vista da trajetória de outro aparelho voador tripulado ou não, o que evitaria a transição
do RPA em passar por cima, na frente ou por baixo de outra aeronave.

Com relação à avaliação da solicitação feita no uso do espaço aéreo, o Órgão Regional
deverá considerar que RPAs não terão prioridade em trafegar sobre aerovias, corredores
visuais, circuito de tráfego e outros espaços aéreos já regulamentados.

Desse modo, é vedado também o uso de RPA sobre áreas povoadas e grupos de
pessoas, exceto em casos onde a operação do RPA cumpre com todos os requisitos já
estabelecidos.

Diferente das aeronaves tripuladas, uma RPA pode ser pilotada por meio de várias
estações de pilotagem remota. Entretanto, quanto maior for o número de RPS, mais
procedimentos seguros devem ser tomados, sendo garantidos também os instrumentos
efetivos de transferência estabelecendo ponto a ponto o operador e sua respectiva
estação de controle.

Em termos de regras, fica proibido exceto quando autorizado por autoridade competente,
o transporte de cargas consideradas perigosas como, por exemplo: explosivos, agentes
químicos ou biológicos, armas, laser, entre outros.

Ao Piloto Remoto de RPA também são dadas regras, as mesmas aplicadas aos pilotos
de aeronaves tripuladas. Segundo o DECEA para aumentar a ciência da situação local
entre controladores de tráfego aéreo e pilotos de outras aeronaves, o termo RPA deverá
ser utilizado na radiotelefonia, muito útil entre os operadores no processo de voo.

Solicitação e autorização de voo

Após o cumprimento de todas as etapas de regulamentação, habilitação e certificação


da documentação considerada adequada para a utilização de RPAs, deverá ser feita uma
solicitação para a utilização do Espaço Aéreo pelo operador ou requerente ao Órgão
Regional do DECEA (CINDACTA I, II, III e IV e SRPVSP), que é responsável pela área
onde se deseja fazer a operação de aeronaves.
113
UNIDADE V │ Aeronaves Remotamente Pilotadas

Convenhamos dizer que, antes que o operador ou requerente faça uma solicitação, é
necessário a verificação do Órgão Regional, se possui jurisdição sobre a área em que se
pretende trafegar. Para isso, o requerente deverá usar um modelo de solicitação para
Autorização de Operação de RPAs concedida pelo DECEA com devidas orientações.

Essa solicitação deverá ser preenchida de acordo com as informações requeridas pelo
operador, acrescida de informações referentes ao RPA, do piloto remoto e devidas
estações de pilotagem remota. Se for o caso; peculiaridades da operação; características
de performance; capacidade das comunicações; procedimento de contingência e de
emergência; medidas de segurança, e seguro e termo de responsabilidade.

A solicitação requerida pelo operador deverá ser dada entrada no órgão regional
competente, com no mínimo 30 dias de antecedência, antes do início da operação do
RPA, juntamente com a cópia de documentos solicitados.

Esse prazo é estabelecido devido ao tempo hábil para ser analisado sob a ótica do
Gerenciamento de Tráfego Aéreo (ATM), proporcionando que os operadores conheçam
o Espaço Aéreo Condicionado estabelecido, dentro dos prazos preconizados em
legislação específica.

Siglas usuais no campo dos VANTs (RPA)

AGL – Acima do Nível do Solo .

ANAC – Agência Nacional de Aviação Civil.

ANATEL – Agência Nacional de Telecomunicações.

ATM – Gerenciamento do Tráfego Aéreo.

ATS – Serviços de Tráfego Aéreo.

BRLOS – Além da Linha de Visada Rádio.

BVLOS – Além da Linha de Visada Visual.

CAG – Circulação Aérea Geral.

CINDACTA – Centro Integrado de Defesa Aérea e Controle de Tráfego Aéreo.

COM – Circulação Operacional Militar.

COMDABRA – Comando de Defesa Aeroespacial Brasileiro .

DECEA – Departamento de Controle do Espaço Aéreo.

DGRSO – Documento de Gerenciamento de Risco à Segurança Operacional.


114
Aeronaves Remotamente Pilotadas │ UNIDADE V

EVLOS – Linha de Visada Visual Estendida.

FPV – First Person View.

IFR – Regras de Voo por Instrumentos.

IMC – Condições Meteorológicas de Voo por Instrumentos.

NOTAM – Notice to Airmen.

OACI – Organização de Aviação Civil Internacional.

RLOS – Linha de Visada Rádio.

RNAV – Navegação de Área.

RNP – Performance de Navegação Requerida.

RPA – Aeronave Remotamente Pilotada.

RPAS – Sistema de Aeronave Remotamente Pilotada.

RPS – Estação de Pilotagem Remota.

RVSM – Separação Vertical Mínima Reduzida.

SARP – Standards and Recommended Practices.

SDOP – Subdepartamento de Operações.

DECEA SISCEAB – Sistema de Controle do Espaço Aéreo Brasileiro.

SISDABRA – Sistema de Defesa Aeroespacial Brasileiro.

SGSO – Sistema de Gerenciamento da Segurança Operacional

SRPVSP – Serviço Regional de Proteção ao Voo de São Paulo.

UAS – Sistema de Aeronave Não Tripulada.

UASSG – Grupo de Estudos sobre Sistemas de Aeronaves Não Tripuladas.

VANT – Veículo Aéreo Não Tripulado (termo obsoleto).

VFR – Regras de Voo Visual.

VMC – Condições Meteorológicas de Voo Visual.

VLOS – Linha de Visada Visual.

115
Referências

CRUZ, Olga. Alguns conhecimentos básicos para a fotointerpretação. In:


AerofotoGeografia 25. São Paulo: IGEOG/USP, 1981.

D’OLIVEIRA. Aeronaves não tripuladas – ANT – Histórico no CTA e Perspectivas.


Divisão de Sistemas Aeronáuticos-ASA. São José dos Campos: CTA, 2005.

HARDGRAVE. The pioneers. Aviations and Aeromodelling Disponível em:


<http:/www.ctie.monash.edu.au/hargrave/denny.htm>. Acesso em: 3 set. 2007.

JORGE, L.A. de C. Determinação da cobertura de solo em fotografias aéreas do


Projeto Arara. Dissertação (Mestrado em Ciências da Computação) – Universidade
de São Paulo, São Carlos, 2001.

LILLESAND, T.M.; KIEFER, R.W. Remote Sensing and Image Interpretation. 3.


Ed. Toronto: John Wiley and Sons, Inc., 1994.

MEDEIROS, F. A. Desenvolvimento de um veículo aéreo não tripulado para


aplicação em agricultura de precisão. Santa Maria, 2007.

SILVEIRA, V. Brasil já desenvolve o veículo não tripulado. Disponível em:


<http://www.defesanet.com.br/tecno/vant/>. Acesso em: 3 set. 2016.

SILVA, Jorge Xavier da. Geoprocessamento para análise ambiental. Rio de


Janeiro: J. Xavier da Silva, 2001.

116

Você também pode gostar