Docsity
Docsity

Prepare-se para as provas
Prepare-se para as provas

Estude fácil! Tem muito documento disponível na Docsity


Ganhe pontos para baixar
Ganhe pontos para baixar

Ganhe pontos ajudando outros esrudantes ou compre um plano Premium


Guias e Dicas
Guias e Dicas

Interpretação de Imagens Satelitales: Fotointerpretação e Características de Imágenes, Notas de estudo de Engenharia de Minas

Informações sobre a interpretação visual de imagens satelitales, incluindo a utilização de overlay para identificação e rotulagem de características homogêneas, como áreas desmatadas. O texto também discute as tonalidades, textura e forma em imagens, e a importância da análise visual em pequenas áreas. Além disso, o documento aborda a importância de satélites na obtenção de imagens de sensoriamento remoto e a resolução espacial e radiométrica final dos sensores.

Tipologia: Notas de estudo

Antes de 2010

Compartilhado em 31/03/2008

marcus-nicholas-3
marcus-nicholas-3 🇧🇷

2 documentos

1 / 54

Documentos relacionados


Pré-visualização parcial do texto

Baixe Interpretação de Imagens Satelitales: Fotointerpretação e Características de Imágenes e outras Notas de estudo em PDF para Engenharia de Minas, somente na Docsity! INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 APOSTILA PARA O CURSO 6 INTRODUÇÃO AO SENSORIAMENTO REMOTO E PROCESSAMENTO DE IMAGENS Dias: 16 e 17 de abril (sábado e domingo) Horário: 8:00 às 12:00 e das 14:00 às 18:00 horas Autores/Instrutores: Getulio T. Batista (UNITAU) Nelson W. Dias (UNITAU) Carga Horária: 16 horas INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 2 SUMÁRIO PREFÁCIO INTRODUÇÃO O que é Sensoriamento Remoto? Descrição dos Componentes do SR - Exemplo do uso da Máquina Fotográfica RADIAÇÃO Espectro Eletromagnético Influência da Atmosfera INTERAÇÃO DA ENERGIA COM A SUPERFÍCIE DA TERRA SENSORES Características dos Satélites: Órbitas e Faixa Coberta no Solo Resolução Espacial, Tamanho do Pixel, e Escala Resolução Espectral Resolução Radiométrica Resolução Temporal SATÉLITES Landsat Spot Cbers Imageador de Largo Campo de Visada (WFI - Wide Field Imager) Câmara CCD de alta resolução (CCD - High Resolution CCD Camera) Câmara de varredura no infravermelho (IR-MSS - Infrared Multispectral Scanner) Outros Satélites RECEPÇÃO, ARMAZENAMENTO E DISTRIBUIÇÃO DOS DADOS 8 9 9 9 10 14 15 18 22 23 25 26 28 29 30 30 32 35 35 36 37 37 38 39 INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 5 Figura 19. Exemplos de imagens de diferentes resoluções espaciais. Quanto melhor a resolução menor será a área coberta. NOAA AVHRR (1,1km), CBERS WFI (260m), Landsat TM (30m), e IKONOS (1m). Figura 20. Resolução espectral. O filme colorido tem uma resolução espectral três vezes melhor do que o filme preto e branco. Hoje temos sensores hiperespectrais com centenas de bandas o que aumenta o poder discriminatório desses sensores. Figura 21. Ilustração do efeito da resolução radiométrica na aparência dos dados. É óbvio que enxergamos mais detalhes (mais tons) na imagem de 8 bits (à direita). Figura 22. Faixas espectrais do Landsat sensor ETM+. Figura 23. Composição colorida de 3 bandas da imagem Landsat 7 ETM+, reamostrada para15 m de resolução espacial da região de São José dos Campos, SP. Figura 24. Imagens SPOT com diferentes resoluções. (© das imagens da SPOT Image). Figura 25. Exemplos de produtos SPOT Figura 26. Imagem CBERS WFI da Represa de Itaipu, PR Figura 27. Imagem CCD do CBERS-2 de São José dos Campos, SP obtida em 30/01/2004. Ressalta-se parte da represa de Paraibuna a oeste e cavas de areia no município de Jacareí (manchas escuras ao longo do rio Paraíba). Figura 28. Estação Terrena de Rastreio e Comando de Satélite em Cuiabá, estado do Mato Grosso, Brasil. Essas antenas são de grande diâmetro e com capacidade de rastreio. Figura 29. A imagem é formada por pixels, que é o cruzamento da linha e coluna e tem coordenadas (linha - coluna ou longitude – latitude quando a imagem é georreferenciada) e um valor de brilho (ND) associado com sua reflectância ou emitância. Quanto maior o ND mais claro o pixel. Observar que visualmente não se distingue o ND=59 do ND=61, mas para o computador são totalmente distintos. Figura 30. Interpretação visual de imagens de satélite. Com o overlay (papel transparente) sobreposto à imagem, traça-se as principais feições (áreas homogêneas) que conhecimento da área podem ser identificadas e rotuladas (e.g. área desmatada). Figura 31. Resposta espectral do solo, vegetação e água versus as bandas do Landsat TM. Notar que as bandas foram estrategicamente escolhidas para maximizar a distinção entre as principais feições terrestres Figura 32. Características ou parâmetros associados à fotointerpretação ou interpretação visual de imagens. Figura 33. Exemplo de uma “chave de interpretação” para o mapeamento de áreas sujeitas a diferentes tipos de danos causados pelo incêndio florestal de Roraima de 1998. Figura 34. Composição colorida da imagem CBERS-2, obtida em 30/01/2004 das bandas do sensor CCD-2, bandas 2 (faixa espectral do verde) exibida na cor azul; 3 (faixa espectral do vermelho) exibida na cor vermelha; e, 4 (faixa do infravermelho próximo) 27 27 29 31 32 34 34 35 36 39 40 41 42 45 46 47 INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 6 exibida na cor verde. Todas as bandas sofreram um realce de contraste. Figura 35. A interpretação digital ou classificação de imagens requer o uso de um computador com pacotes de software especialmente desenvolvidos para análise de imagens. Figura 36. Ilustração da regra de decisão do MAXVER. As classes A e B têm distribuição gaussiana (curvas normais). O ponto d pertence à classe B (maior probabilidade, o ponto c poderá pertencer a qualquer uma das classes e, embora, o ponto e tenha maior probabilidade de pertencer à classe B do que a A, a probabilidade é tão pequena que é melhor classificar o ponto e como não pertencente a nenhuma das classes. Figura 37. Integração de dados através de SIG. O SPRING também tem essa função e trata tanto dados vetoriais quanto matriciais. 47 49 49 INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 7 LISTA DE TABELAS Tabela 1. Faixas espectrais das bandas do sensor TM do Landsat. Tabela 2. Características do ETM+. Tabela 3. Características do SPOT Tabela 4. Sensores e suas faixas espectrais do SPOT-1,2,3 e 4. Tabela 5. Características do ETM+ Tabela 6. Características do Sensor CCD do CBERS 1 e 2 Tabela 7. Características do Sensor IRMSS do CBERS. Tabela 8. Fotointepretação vs. análise quantitativa de imagens. Tabela 9. Características das imagens no processo de fotointerpretação 31 31 33 33 35 36 37 43 44 INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 10 (Meio 1- entre a fonte e o alvo - Ar (atmosfera)) Meio 2- entre o alvo e o sensor - Ar (atmosfera) C - Interação com o Objeto (Pessoa ou uma paisagem) D - Registro da Energia pelo Sensor (Máquina fotográfica - filme) E – Transmissão, Recepção, e Processamento (Aparelhos do laboratório de revelação) F - Interpretação e Análise (Pessoa que observa -analisa a foto) G – Modelagem e Aplicação (Integração - Organização do álbum) RADIAÇÃO A primeira exigência do Sensoriamento Remoto é a existência de uma fonte de energia para iluminar o objeto (a menos que a energia detectada esteja sendo emitida pelo objeto). A esta energia dá-se o nome de radiação eletromagnética, ou simplesmente REM. A radiação eletromagnética se comporta de acordo com os fundamentos de teoria de onda e consiste de um campo elétrico (E) que varia em magnitude em uma direção perpendicular à direção na qual a radiação está viajando, e um campo magnético (M) orientado em ângulo reto com o campo elétrico. Ambos os campos viajam à velocidade da luz (c) (Figura 2). Figura 2. Radiação eletromagnética, onde c=velocidade de propagação (velocidade da luz), E= campo elétrico e M=campo magnético. Fonte: CCRS (2004). Duas características da REM são particularmente importantes para se entender SR. Elas são o comprimento de onda e a freqüência. INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 11 O comprimento de onda é a duração de um ciclo de onda que pode ser medido como a distância entre cristas de ondas sucessivas (Figura 3). Comprimento de onda normalmente é representado pela letra grega Lambda (λ). Comprimento de onda é medido em metros (m) ou para comprimentos de onda menores em centímetros (cm, 10-2 metros), micrômetros (µm, 10-6 metros) ou nanômetros (nm, 10-9 metros). Freqüência, representada pela letra f se refere ao número de ciclos de uma onda que passa por um ponto fixo por unidade de tempo (Figura 4). Freqüência normalmente é medida em hertz (Hz), o que equivale a um ciclo por segundo. Figura 3. Comprimento de onda (λ) e freqüência. Fonte: Tutorial de Fundamentos do SR do CCRS (2004). Figura 4. Diagrama de ondas de diferentes freqüências que correspondem ao número de cristas de um mesmo comprimento de onda que passam por um ponto em um segundo. Fonte: Tutorial de Fundamentos do SR do CCRS (2004). Comprimento de onda e freqüência estão relacionados pela fórmula seguinte: c = λf Onde, Comprimento de onda longo Comprimento de onda curto Baixa freqüência Baixa energia Alta freqüência Alta energia INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 12 λ = comprimento de onda (m) f= freqüência (ciclos por segundo, Hz) c= velocidade da luz (constante em um meio e igual a 3x108 m/s no vácuo) Então, os dois são relacionados inversamente a um ao outro. Quanto menor o comprimento de onda, maior a freqüência. Um comprimento de onda longo corresponde a uma freqüência baixa. A luz que nossos olhos - nossos "sensores" remotos - pode detectar é parte do espectro visível. É importante reconhecer quão pequeno é a porção visível do espectro em relação ao resto do espectro. Há muita radiação ao redor de nós que é "invisível" aos nossos olhos, mas que pode ser detectada através de outros instrumentos de sensoriamento remoto. Examinemos como os comprimentos de onda são produzidos e como se descrevem os principais tipos de radiação eletromagnética. Qualquer objeto com temperatura acima do zero absoluto (0 Kelvin) emite radiação. Nossa principal fonte de radiação é o sol. Reações nucleares que acontecem internamente ao Sol produzem ondas de alta energia que incluem raios gama, raios x e muita radiação ultravioleta que é radiada em direção à Terra. Felizmente, muita dessa radiação de alta energia é absorvida pelos gases presentes na alta atmosfera, principalmente o ozônio e não atinge a superfície da Terra. Muita da radiação de baixa energia que é emitida pelo Sol é produzida próximo da sua superfície. Isso inclui a radiação das regiões do visível e do infravermelho, bem como do ultravioleta. Uma vez que uma porção dessa radiação nesses comprimentos de onda atinge a superfície da Terra, ela pode ser refletida, tornando-se o principal objeto do sensoriamento remoto. Os comprimentos de onda de menor energia são emitidos pela própria Terra. Esses comprimentos de onda incluem as regiões do infravermelho termal e microondas. A radiação da região do visível é a porção do espectro mais familiar para nós, uma vez que pode ser detectada pelos nossos olhos. Há que se ressaltar que é também na região do visível em que o sol emite mais radiação. Como a natureza é perfeita! Pode-se verificar que a radiação do visível é composta por vários comprimentos de onda (cores - Figura 5). O azul, verde e o vermelho são denominados cores primárias porque todas as outras cores são produzidas pelas várias combinações destas três cores ou destes comprimentos de onda. (Figura 6). As cores que vemos num objeto são dependentes dos comprimentos de onda que são refletidos por ele. Por exemplo, quando toda ou a maior parte da radiação referente à região do visível que atinge um objeto é refletida de volta, sua aparência será de cor branca. É por isso vemos areias claras em imagens ou fotografias aéreas. Quando a maioria da radiação, que atinge um objeto for absorvida por ele, este aparecerá de cor preta i.e., ausência de cor. Por isso que florestas naturais INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 15 Figura 7. Regiões do espectro eletromagnético mais freqüentemente usadas no SR. Fonte: Dias et al. (2003). Qualquer corpo que esteja acima do zero absoluto (0K) emite radiação por vibração molecular. Quanto maior a temperatura do objeto, maior a quantidade de radiação que ele emitirá. De fato, existe uma lei que diz que a radiação emitida é proporcional a quarta potência da temperatura, sendo ainda dependente da emissividade que é uma característica própria de cada alvo. Essa lei é conhecida como lei de Stefan-Boltzmann e é exatamente por ela que podemos com o SR estimar a temperatura da superfície do mar ou da terra via satélite. De fato, na área da oceanografia isso é uma rotina e temos hoje rotineiramente informações sobre a temperatura da superfície do mar sendo usadas em tempo real para orientar barcos de pesca. Um outro aspecto relativo à emissão da radiação em função da temperatura é que quanto maior a temperatura, o pico de emissão máxima se desloca para comprimentos de onda menores, ou seja o comprimento de onda correspondente à emissão máxima será menor. Esse fato é conhecido como lei de deslocamento de Wien. Dessa forma o sol emite o máximo de radiação em 0,5 µm, enquanto a terra a uma temperatura bem menor emite o máximo em 10 µm. A Figura 23 ilustra bem a lei de Wien. Influência da Atmosfera Figura 8. O espectro eletromagnético com as principais faixas espectrais conhecidas. INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 16 A atmosfera interfere de forma significativa nos dados de SR. Ela absorve ou espalha a radiação de forma diferenciada em função dos comprimentos de onda (Figura 9). Somente uma pequena parte da radiação que é emitida pelo Sol chega até a Terra. De toda a radiação solar que chega à Terra, somente 50% atinge a superfície devido, principalmente, ao efeito atenuante do ozônio e de outros gases ionizados presentes na atmosfera. As partículas presentes na atmosfera, como aerossóis, poeiras, moléculas de diversos gases, com diferentes tamanhos interferem na radiação que chega aos alvos terrestres ou ao sensor. A Figura 10 mostra a diferença entre a radiação solar no topo da atmosfera e ao nível do mar. Figura 9. Efeito atmosférico: absorção e espalhamento. Fonte: Tutorial de Sensoriamento Remoto do CCSR (2004). Figura 10. Radiação solar no topo da atmosfera e ao nível do mar. Notar que a radiação ao nível do mar é bem menor em função da absorção atmosférica. Fonte: Novo e Ponzoni (2001). INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 17 Quanto maior a camada atmosférica a ser atravessada e quanto mais partículas presentes nela maior será o efeito atmosférico. A Figura 11 ilustra este aspecto. Figura 11. Observar que a camada atmosférica pela manhã e ao entardecer é bem maior do que ao meio dia e isso está relacionado com o céu vermelho que vemos ao entardecer. Os diferentes gases presentes na atmosfera absorvem a radiação em comprimentos de onda específicos. As faixas de comprimento de onda onde a radiação é menos absorvida são chamadas de janelas atmosféricas. A Figura 12 ilustra de forma mais clara as janelas atmosféricas importantes em SR. Figura 12. Janelas atmosféricas nos principais comprimentos de onda de interesse para o SR. INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 20 Figura 15. Reflectância de grama obtida com espectrorradiômetro de campo na Fazenda Piloto do Departamento de Ciências Agrárias em 2002. Figura 16. Reflectância da água em diferentes localidades do Lago Paranoá, DF. Observar que ela é menor do que 10% em todos os comprimentos de onda do visível. Fonte: Pufal (2001). Figura 17. Resposta espectral de diversos tipos de solos. Fonte: Alvarenga et al. (2003). INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 21 de correlação: 0,81, 0,91, 0,83, e 0,85, para Clorofila, turbidez, sólidos totais, e profundidade do disco de Secchi, respectivamente. (Figura 16). Outra feição expressiva na superfície terrestre é o solo. Existe uma variedade de tipos de solos e cada um reflete a radiação de forma diferenciada. Solos claros tendem a ter melhor drenagem e refletir grandes quantidades de radiação do visível e do infravermelho próximo. Solos menos claros ou escuros tendem a ter altos níveis de matéria orgânica e são freqüentemente mais úmidos devido à deficiência da drenagem e, portanto, aparecem mais escuros em fotografias e imagens orbitais. De forma geral, a reflectância do solo e outros materiais não cobertos pela vegetação aumenta à medida que o comprimento de onda aumenta (visível e infravermelho). (Figura 17). Segundo Alvarenga et al. (2003) nas curvas apresentadas na Figura 17 verifica-se que os óxidos de ferro (Fe2O3) tiveram influência nos solos NV, GS e LV1, na faixa espectral próxima a 900nm. Os seguintes valores para Fe2O3 foram observados nesses solos: NV = 17,8 %, LV1 = 1,8 % e GS = 1,5%. Os solos LV2 e LVE, embora, sem a análise, demonstraram comportamento característico de solos com presença de óxidos de ferro. Na faixa entre 1400 e 1500nm pode-se verificar a influência da água e das hidroxilas (OH-) na absorção da radiação, exceto, para os solos LVE e AH na faixa centrada em 1400 nm. O solo LVE apresentou esta feição na faixa de aproximadamente 1900 nm. Solos com baixos valores de reflectância não apresentaram bandas de absorção referentes à água (1400 nm e 1900 nm) de forma marcante (LA). Segundo ainda Alvarenga et al. (2003), na faixa entre 2100 e 2200 nm verificou-se em todos os solos, uma forte absorção pela caulinita, com exceção do solo AH, que mostrou valores não significativos na análise pedológica para o Al2O3 e SiO2. Verifica-se que na faixa de 1900nm (Figura 17) pode ter ocorrido absorção em função da presença de vermiculita, pois o comportamento espectral para a maioria dos solos analisados apresentou característica típica de absorção deste constituinte mineralógico. De acordo com a curva espectral dos solos PP1, PP2 e AH pode-se deduzir que são solos arenosos, uma vez que a areia (quartzo) no solo aumenta a reflectância em todo o espectro estudado. Além disso, os baixos teores de matéria orgânica diminuem a absorção e em conseqüência aumentam a reflectância. Em relação ao constituinte mineralógico gibbsita, pode-se afirmar que os solos apresentaram feições deste mineral, vistas na faixa de 2300 nm, com exceção do AH e LVE que não apresentaram a absorção característica deste mineral. A curva espectral do solo PP2 mostrou a presença de quartzo, notado pela variação da curva na faixa de 1000nm. INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 22 Feições que aparecem “misturadas”, como no caso de solos cobertos por vegetação esparsa, apresentarão uma resposta espectral combinada com parte da reflectância de cada um dos objetos presentes, neste caso, vegetação e solos. Conhecendo como a radiação interage com cada feição da superfície terrestre, e especialmente como elas refletem a radiação incidente, podemos obter informação sobre a superfície da Terra coletando e analisando as características da radiação refletida. Por exemplo, sabendo-se que a vegetação reflete muito mais radiação do infravermelho próximo do que os solos, pode-se utilizar este conhecimento para distinguir estas duas feições entre si em grandes extensões de terra através de dados orbitais. Para viabilizar a aplicação das técnicas de sensoriamento remoto, a radiação refletida deve ser coletada e registrada por algum tipo de sistema sensor. Portanto, iremos agora conhecer como as diversas formas de radiação, já discutidas anteriormente, são coletadas pelos satélites e outros equipamentos, a letra D – Sensores, da Figura 1. SENSORES Nos capítulos anteriores nós aprendemos alguns dos conceitos fundamentais do SR. Estudou-se os primeiros três componentes deste processo: a fonte de energia, interação da energia com a atmosfera, e interação da energia com a superfície (alvos). Neste capítulo será examinado em maior detalhe, as características de plataformas para o sensoriamento remoto e sensores, assim como, os dados que eles coletam. Para que um sensor possa coletar e registrar a energia refletida ou emitida por um objeto ou superfície, ele tem que estar instalado em uma plataforma estável à distância do objeto ou da superfície que esteja sendo observada. Plataformas de sensores remotos podem estar situadas no solo, em uma aeronave ou balão ou numa plataforma ao redor da Terra (satélite). (Figura 18). Sensores baseados no solo são usados para registrarem freqüentemente informação detalhada sobre a superfície que pode ser comparada com informação coletada a bordo de aeronaves ou sensores a bordo de satélites. Em alguns casos, esta informação de plataformas terrestres tem sido usada para caracterizar melhor o objeto que está sendo imageado por outros sensores, em plataformas mais altas, tornando possível entender melhor a informação na imagem. Sensores podem ser colocados em uma escada de mão, andaime, torres ou colhedeiras de frutas, etc. Plataformas aéreas são principalmente aeronaves de asas estáveis, embora helicópteros sejam ocasionalmente usados. Aeronaves freqüentemente coletam dados e imagens muito detalhadas e facilitam a obtenção de dados virtualmente, em qualquer parte da superfície da Terra a qualquer hora. No espaço, o sensoriamento remoto às vezes utiliza nave espacial ("Space Shuttle") ou, mais INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 25 da Terra estar girando (de oeste para leste) embaixo dele. Este movimento aparente permite que a órbita do satélite cubra uma área nova a cada passagem sucessiva. A órbita do satélite e a rotação da Terra em conjunto permitem completar a cobertura total da superfície da Terra, depois de um ciclo completo de órbitas. Um ciclo de órbita será completado quando o satélite repassa seu caminho, passando diretamente em cima do mesmo ponto na superfície da Terra abaixo do satélite (chamado nadir) por uma segunda vez. A duração exata de um ciclo orbital variará com cada satélite. O intervalo de tempo requerido para um satélite completar seu ciclo de órbita não é igual ao "período de revisita". Sensores direcionáveis permitem reduzir o tempo de "revisita". O período de revisita é uma consideração importante para várias aplicações de monitoramento, especialmente quando um imageamento freqüente é requerido (por exemplo, para monitorar a expansão de um derramamento de óleo, ou a extensão de inundação). Em órbitas quase-polares, áreas situadas em altas latitudes serão imageadas mais freqüentemente que a zona equatorial devido ao aumento da sobreposição das faixas de cobertura das órbitas adjacentes uma vez que as órbitas são mais próximas à medida que se aproximam dos pólos. Resolução Espacial, Tamanho do Pixel, e Escala Para alguns instrumentos de sensoriamento remoto, a distância entre o objeto a ser imageado e a plataforma, tem um papel importante para determinar o nível de detalhe da informação obtida e a área total imageada pelo sensor. Sensores a bordo de plataformas distantes dos objetos, tipicamente observam uma área maior, mas não podem prover grande detalhe dos objetos imageados. O detalhe discernível em uma imagem é dependente da resolução espacial do sensor e se refere ao menor tamanho de objetos possível de ser detectado. Resolução espacial de sensor passivo (nós examinaremos o caso especial de sensor ativo de microondas depois) depende principalmente do Campo Instantâneo de Visão deles (IFOV). O IFOV é o cone angular de visibilidade do sensor e determina a área na superfície da Terra que é "vista" a uma determinada altitude em um momento particular. O tamanho da área vista é determinado multiplicando-se o IFOV pela distância do solo até o sensor. Esta área no solo é chamada de elemento de resolução e determina a resolução espacial máxima do sensor. Para um objeto homogêneo a ser detectado, seu tamanho geralmente tem que ser igual ou maior que o elemento de resolução. Se o objeto é menor que ele, pode não ser detectável uma vez que o brilho médio de todos os objetos no elemento de resolução é o que será registrado. Porém, objetos menores podem as vezes ser detectáveis se a reflectância deles dominar dentro de um elemento de resolução particular e nesse caso, pode ocorrer a detecção ao nível de sub-pixel. Pixels de imagem normalmente são quadrados e representam uma certa área em uma imagem. INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 26 A palavra pixel é derivada do termo em inglês “picture element” (elemento de foto). Um exemplo comum de pixels pequenos pode ser observado em um monitor de computador ou na tela de televisão. As imagens nestas telas não são “sólidas”, mas sim compostas por milhares de pontos muito pequenos chamados pixels, que vistos à distância nos dão a impressão de formarem uma imagem sólida. É importante distinguir entre tamanho do pixel e resolução espacial - eles não são intercambiáveis. Se um sensor tem uma resolução espacial de 20 metros e uma imagem daquele sensor é exibida com resolução total, i.e., sem degradação da imagem, cada pixel representa uma área de 20m x 20m no solo. Neste caso o tamanho do pixel e a resolução são o mesmo. Porém, é possível exibir uma imagem com um tamanho de pixel diferente da resolução. Muitos cartazes ou posters de imagens de satélite da Terra têm o tamanho dos pixels calculados para representar áreas maiores, embora a resolução espacial original do sensor que gerou a imagem permaneça a mesma. Imagens em que só objetos grandes são visíveis são ditas de resolução grossa ou baixa. Em imagens de resolução alta ou fina, podem ser detectados objetos pequenos. Sensores militares, por exemplo, são projetados para "verem" o máximo de detalhe possível, e têm, portanto, resolução muito boa. Satélites comerciais provêem imagem com resoluções que variam de alguns metros a vários quilômetros (Figura 19). Falando de modo geral, quanto melhor a resolução, menor a área de terreno que pode ser vista. A razão entre a distância em uma imagem ou mapa, para distância real no terreno é chamada Escala. Se você tivesse um mapa com uma Escala de 1:100.000, um objeto de 1cm de tamanho no mapa seria de fato um objeto de 100.000cm ou de 1km de tamanho no solo. Mapas ou imagens com relações "mapa-para-solo pequenas" são chamados de pequena escala (por exemplo, 1:100.000), e os com relações maiores (por exemplo 1:5.000) são chamados de grande escala. Resolução Espectral Resolução espectral descreve a habilidade de um sensor definir intervalos de comprimento de onda estreitos. Quanto melhor a resolução espectral, mais estreita será o intervalo de comprimento de onda para um canal particular ou faixa. Filmes branco e preto registram comprimentos de onda que se estendem ao longo de toda a porção visível do espectro eletromagnético. Sua resolução espectral é bastante grossa (ou baixa), os vários comprimentos de onda, do espectro visível, não são distinguidos individualmente e a reflectância média (integrada) na porção visível inteira é registrada. Filmes coloridos também são sensíveis à energia refletida da porção visível do espectro, mas têm resolução espectral mais alta, uma vez que eles são sensíveis individualmente à energia refletida no azul, verde, e no vermelho do espectro. (Figura 20). Assim, podem representar as diferentes feições de várias cores com base na reflectância delas em cada comprimento de onda distinto da luz visível. Muitos sistemas de sensoriamento remoto registram INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 27 energia ao longo de intervalos separados de comprimentos de onda com várias resoluções espectrais distintas. Desta forma, são chamados sensores multi-espectrais e serão descritos nas seções seguintes. Atualmente existem sistemas bastante avançados em termos multi-espectrais são os chamados sensores hiperespectrais, que cobrem centenas de faixas espectrais muito estreitas ao Figura 19. Exemplos de imagens de diferentes resoluções espaciais. Quanto melhor a resolução menor será a área coberta. NOAA AVHRR (1,1km), CBERS WFI (260m), Landsat TM (30m), e IKONOS (1m). Figura 20. Resolução espectral. O filme colorido tem uma resolução espectral três vezes melhor do que o filme preto e branco. Hoje temos sensores hiperespectrais com centenas de bandas o que aumenta o poder discriminatório desses sensores. Fonte: Tutorial de Sensoriamento Remoto do CCRS (2004). NOAA AVHRR (1,1 Km) 27/03/2004 CBERS WFI (260 m) Landsat ETM (30m) 27/02/2003 IKONOS (1m) 13/12/2003 Esconderijo do ex-presidente Saddan Hussein ao nordeste da cidade de Ad-Dawr (IRAQUE) Município de Taubaté Eixo Rio-SP Ciclone Catarina Ilha Bela Mancha urbana São Paulo Mancha urbana e Bahia de Guanabara Rio de Janeiro INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 30 monitorar as mudanças que acontecem na superfície da Terra, sejam elas de natureza natural (como mudanças na cobertura natural da vegetação ou inundação) ou induzidas pelo homem (como desenvolvimento urbano ou desmatamento). O fator tempo para o imageamento é importante quando: • nuvens persistentes limitam a possibilidade de visões claras da superfície da Terra (freqüentemente nas regiões tropicais); • fenômenos de vida curta (inundações, vazamentos de óleo, etc.); • quando imageamentos freqüentes para comparações multi-temporais (por exemplo a expansão de uma doença de floresta de um ano para o outro); • separação entre feições ou alvos similares, quando mudam através do tempo, exemplo, trigo / milho. Tendo visto os principais parâmetros para caracterização dos sensores, examina-se agora alguns sensores principais. SATÉLITES Em função do sistema de coleta de dados os sensores podem ser ativos ou passivos. Os sensores passivos medem a radiação refletida ou emitida por um objeto enquanto que os sensores ativos emitem radiação própria e medem o retorno dessa radiação após ser modificada pelos objetos, exemplos são os sistemas de radar, hoje amplamente utilizados em plataformas aéreas e orbitais. Outro exemplo é o LIDAR, a base de laser que tem um potencial enorme para o estudo de ecossistemas terrestres. Nesse curso, trataremos dos principais sensores passivos a bordo de satélites. Landsat O primeiro satélite destinado ao estudo dos recursos naturais, denominado Landsat 1, foi lançado pelos Estados Unidos em 1972. Este satélite carregava um sensor chamado MSS ou Multispectral Scanner Subsystem. Este sensor possuía 4 bandas, sendo uma na região do verde, outra na região do vermelho e duas outras bandas no infravermelho próximo. O MSS possuía uma resolução espacial de 80 x 80 m. Atualmente o valor destes dados é apenas histórico, de suma importância para estudos de mudanças de longo prazo. O Landsat 4 foi lançado em 1982 e adicionalmente ao MSS, ele carregava ainda outro sensor, então denominado Thematic Mapper, ou TM. Devido a problemas com os componentes elétricos, o Landsat 4 foi desativado logo após o lançamento e substituído pelo Landsat 5. O Landsat 5 também levava a bordo o MSS e o TM. O Landsat-7 ETM+, lançado em abril de 1999 é o sétimo de uma série de satélites para monitoramento e observação da Terra. Este satélite possui as mesmas características de seus INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 31 antecessores, mas com algumas inovações: uma banda pancromática com resolução espacial de 15 metros; um canal infravermelho termal com resolução espacial de 60 metros e uma calibração radiométrica absoluta de 5 % “on board”. A plataforma do Landsat-7 ETM+ opera a uma altitude de 705 Km, em órbita quase-polar, sol-síncrona, imageando uma faixa de 185Km com repetição a cada 16 dias. O sensor ativo a bordo é o Enhanced Thematic Mapper (ETM+), com 6 bandas ópticas (azul, verde, vermelho, Tabelas 1 e 2). Figura 22. Faixas espectrais do Landsat sensor ETM+. Tabela 1. Faixas espectrais das bandas do sensor TM do Landsat. Banda Faixa espectral 1 0,45 a 0,52 µm - azul 2 0,52 a 0,60 µm - verde 3 0,63 a 0,69 µm - vermelho 4 0,76 a 0,90 µm - infravermelho próximo 5 1,55 a 1,75 µm - infravermelho médio 6 10,4 a 12,5 µm - infravermelho termal 7 2,08 a 2,35 µm - infravermelho distante Tabela 2. Características do ETM+. LANDSAT ETM+ RESOLUÇÃO NO SOLO 30 m, 60m (termal) e 15m (pan) DIMENSÃO DE UMA CENA 185 km x 185 km INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 32 PROPRIEDADES ESPECTRAIS 8 canais espectrais Figura 23. Composição colorida de 3 bandas da imagem Landsat 7 ETM+, reamostrada para15 m de resolução espacial da região de São José dos Campos, SP. infravermelho próximo e duas no infravermelho médio; 0,45-2,35 µm), de resolução espacial de 30 metros, uma outra banda no infravermelho termal 10,4-12,5 µm, com 60 metros de resolução, e uma terceira banda pancromática (0,52-0,90 µm) com 15 metros de resolução. (Figuras 22 e 23, Spot O programa francês SPOT já lançou cinco satélites que possuem dois sensores idênticos, um ao lado do outro e que podem ser operados independentemente. Com o SPOT é possível a observação estereoscópica de dados através da orientação programável dos sensores, que pode ser usada para produção de cartas topográficas e modelo digital do terreno. A revisita pode não estar restrita a 26 dias do ciclo de revolução, mas diminui na dependência da latitude geográfica e da programação flexível da visada (Tabelas 3 e 4). INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 35 SPOT, está atualmente comercializando dados de Modelos Numéricos de Terreno (MNT ou DEM) por km2. As Figuras 24 e 25 apresentam diversos produtos SPOT. Cbers O satélite CBERS (China Brazil Earth Resources Satellite) é fruto da cooperação entre Brasil e China. Ele foi lançado em 1999, projetado para cobertura global contendo câmaras para observação óptica e um sistema de coleta de dados ambientais. Ele possui três tipos de sistemas sensores de coleta de dados de sensoriamento remoto para recursos naturais: o sensor CCD, o IR- MSS e o WFI. Imageador de Largo Campo de Visada (WFI - Wide Field Imager) O WFI, sensor sob a responsabilidade brasileira, imageia uma faixa de 890 km de largura, fornecendo uma visão sinótica com resolução espacial de 260 x 260 m. Em cerca de 5 dias obtém- se uma cobertura completa do globo em duas bandas espectrais centradas em: 0,66µm (vermelho) e 0,83µm (infravermelho próximo). (Tabela 5 e Figura 26). Tabela 5. Características do ETM+. Características do WFI Bandas Espectrais 0,63 - 0,69 µm (vermelho) 0,77 - 0,89 µm (infra-vermelho Campo de visada 60º Resolução espacial 260 x 260 m Largura da faixa imageada 890 km Resolução temporal 5 dias Figura 26. Imagem CBERS WFI da Represa de Itaipu, PR. INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 36 Câmara CCD de alta resolução (CCD - High Resolution CCD Camera) A câmara CCD fornece imagens de uma faixa de 113km de largura, com uma resolução de 20m. Esta câmara tem capacidade de orientar seu campo de visada dentro de ± 32 graus, possibilitando a obtenção de imagens estereoscópicas de uma certa região, similar ao satélite SPOT. Além disso, qualquer fenômeno detectado pelo WFI pode ser focalizado pela Câmara CCD através do apontamento apropriado de seu campo de visada, no máximo a cada 3 dias. Opera em 5 faixas espectrais incluindo uma faixa pancromática de 0,51 a 0,73 µm. As duas faixas espectrais do WFI são também empregadas na câmara CCD para permitir a combinação dos dados obtidos pelas duas câmaras. São necessários 26 dias para uma cobertura completa da Terra com a câmara CCD. (Tabela 6 e Figura 27). Tabela 6. Características do Sensor CCD do CBERS 1 e 2. Características do Instrumento Imageador CCD Bandas espectrais 0,51-0,73µm (pan) 0,45-0,52µm (azul) 0,52-0,59µm (verde) 0,63-0,69µm (vermelho) 0,77-0,89µm (infravermelho próximo) Campo de Visada 8,3º Resolução espacial 20 x 20 m Largura da faixa imageada 113 km Capacidade de apontamento do espelho ±32º Resolução temporal 26 dias com visada vertical (3 dias com visada lateral) INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 37 Figura 27. Imagem CCD do CBERS-2 de São José dos Campos, SP obtida em 30/01/2004. Ressalta-se parte da represa de Paraibuna a oeste e cavas de areia no município de Jacareí (manchas escuras ao longo do rio Paraíba). Câmara de varredura no infravermelho (IR-MSS - Infrared Multispectral Scanner) A câmara de varredura IR-MSS tem 4 faixas espectrais e estende o espectro de observação do CBERS até o infravermelho termal. O IR-MSS produz imagens de uma faixa de 120 km de largura com uma resolução de 80 m (160 m na banda termal) (Tabela 7). Em 26 dias obtém-se uma cobertura completa da Terra que pode ser correlacionada com aquela obtida através da câmara CCD. Tabela 7. Características do Sensor IRMSS do CBERS. Características do Instrumento Imageador IRMSS: Bandas espectrais 0,50 - 1,10 µm (pancromática) 1,55 - 1,75 µm (infravermelho médio) 2,08 - 2,35 µm (infravermelho médio) 10,40 - 12,50 µm (infravermelho termal) Campo de Visada 8.8º Resolução espacial 80 x 80 m (160 x 160 m termal) Largura da faixa imageada 120 km Resolução temporal 26 dias Em outubro de 2003 foi lançado o CBERS-2 com as mesmas características do CBERS-1, porém com imagens de muito melhor qualidade. A inovação mais importante que o CBERS trouxe foi o sistema de distribuição de dados para o Brasil. A disponibilização gratuita dos dados (http://www.dgi.inpe.br/pedidos_CBERS/licenca-CBERS.htm) aumentou de forma significativa o uso de seus dados e essa atitude tem atraído a atenção mundial dos distribuidores de dados de satélites, como uma nova abordagem a ser refletida. Outros Satélites Existe uma outra família de sensores orbitais que cobrem áreas mais extensas da superfície terrestre, mas que possui uma resolução espacial bem menor, normalmente maior do que 1 km. Estes sensores são denominados sensores globais, ou regionais, e têm órbitas muito mais altas do que as dos satélites discutidos até o momento. Estes sensores são capazes de mapear grandes porções da superfície terrestre em curtos períodos de tempo, desde 30 minutos até alguns dias. O GOES é um satélite meteorológico utilizado para previsão climática, o SeaWiFS é usado no monitoramento de oceanos e de ventos marítimos e o NOAA AVHRR é usado no mapeamento dos recursos naturais em geral. Vários países, como os Estados Unidos, Canadá, Japão, Alemanha, França, China, Brasil, Índia e Rússia têm ou terão seus próprios sensores orbitais. Estes satélites, coletivamente, INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 40 A radiação emitida pelo Sol é refletida pela Terra e é coletada pelo sensor a bordo do satélite. No sensor, a radiação refletida é convertida em um número digital ou ND, em função da intensidade desta reflexão (brilho). Quanto maior for o brilho, ou mais refletiva for uma feição, mais altos serão os valores digitais registrados. O sensor Landsat TM, com 8 bits de resolução radiométrica, possui valores de NDs compreendidos entre 0 e 255. Um pixel com ND = 240 representa uma reflectância ou emitância (no caso da banda termal, banda 6 do TM) muito alta, enquanto um pixel com valor ND =10 representa reflectância ou emitância muito baixa. Um computador tem a capacidade de analisar estes números e extrair informações sobre a superfície terrestre, mas a visualização da imagem, como se fosse uma fotografia, é comumente usada para a análise visual. De fato, a análise visual é muito importante quando as características típicas do objeto que queremos analisar for espacial e não puramente espectral. Em outras palavras quando a forma for mais importante do que a cor ou tonalidade. Para criar uma imagem, um programa de computador deve associar uma escala de níveis de cinza para cada valor de ND em cada pixel. Valores altos de ND receberão tonalidades claras, enquanto valores baixos receberão tonalidades escuras, como mostrado na Figura 29. Figura 29. A imagem é formada por pixels, que é o cruzamento da linha e coluna e tem coordenadas (linha - coluna ou longitude – latitude quando a imagem é georreferenciada) e um valor de brilho (ND) associado com sua reflectância ou emitância. Quanto maior o ND mais claro o pixel. Observar que visualmente não se distingue o ND=59 do ND=61, mas para o computador são totalmente distintos. Interpretação visual Existem duas abordagens principais para a interpretação de uma imagem ou fotografia: digital e visual. No sensoriamento remoto o procedimento mais comum inclui a integração destas duas formas. INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 41 A interpretação de uma imagem permite a extração de informações sobre os objetos existentes na cena, sem necessidade de se ir ao local. (Figura 30). A visão panorâmica das imagens cobre uma grande área e permite melhor visualização de fenômenos e dos alvos a serem analisados. A interpretação visual é uma metodologia prática e mais barata e permite ainda uma análise temporal do ambiente. Figura 30. Interpretação visual de imagens de satélite. Com o overlay (papel transparente) sobreposto à imagem, traça-se as principais feições (áreas homogêneas) que conhecimento da área podem ser identificadas e rotuladas (e.g. área desmatada). A legenda é um dos primeiros passos a serem realizados em função do objetivo do trabalho e do sensor a ser utilizado. Por exemplo, com o Landsat TM, que possui resolução de 30m pode-se realizar: • mapeamento e monitoramento dos remanescentes de Mata; • avaliação do grau de fragmentação; • estudos de expansão urbana; • análise dos agentes do desmatamento. Com o NOAA AVHRR de resolução de 4 km, pode-se realizar: • mapeamento e monitoramento dos grandes biomas brasileiros (Floresta Tropical, Cerrado e Caatinga); • avaliação do grau de vigor da vegetação (variação fenológica sazonal); • estudos de expansão urbana em larga escala; • processos de antropização na Amazônia. Na interpretação propriamente dita é fundamental se rever as características do sensor utilizado e a resposta espectral dos alvos a serem analisados. A Figura 31 ilustra a resposta da vegetação, água e solos com a indicação da localização das bandas do Landsat TM. Imagem em papel ou na tela do computador “Overlay” de papel vegetal INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 42 Figura 31. Resposta espectral do solo, vegetação e água versus as bandas do Landsat TM. Notar que as bandas foram estrategicamente escolhidas para maximizar a distinção entre as principais feições terrestres. A fotointerpretação pode ser facilitada, se as imagens a serem submetidas à análise visual forem previamente processadas de modo a realçar aspectos relevantes da cena. É o que chamamos de pré-processamento da imagem. Numa seqüência lógica, a interpretação de imagens orbitais deve passar pelos seguintes passos: • Definição do objetivo da interpretação; • Definição do nível de detalhe (regional, local...); • Definição da legenda; • Escolha do produto a ser utilizado; • Definição e adaptação da Legenda em função do sensor a ser utilizado; • Obtenção da imagem orbital (em papel ou digital). No Brasil, o INPE é o grande provedor de dados, embora, hoje várias empresas estão também no mercado. Pode-se encontrar na Internet os contatos; • Preparação de uma base cartográfica no “overlay” (em papel, Figura 30); • Registro e contraste da imagem (digital). Fase de pré-processamento que garante que a imagem esteja numa projeção cartográfica conhecida e que tenha coordenadas para localização das feições no campo. O contraste permite um realce da imagem para ressaltar os alvos de interesse; solo Vegetação Água INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 45 (Adaptado de Curran (1985). Figura 32. Características ou parâmetros associados à fotointerpretação ou interpretação visual de imagens. A Figura 32 apresenta imagens que correspondem às características descritas na Tabela 9. Uma forma simplificada de se interpretar dados é através da construção de uma “chave de interpretação”. A Figura 33 sugere a estrutura de uma “chave de interpretação” utilizada para avaliar os impactos do incêndio florestal de Roraima a partir de imagens videográficas. Este é um exemplo de uma chave bastante genérica. Quanto mais específica for a chave, menos subjetiva se torna a interpretação das informações. Observe que o significado das cores é dependente do produto utilizado e da combinação de filtros utilizada. Esta chave não tem validade geral, colocada aqui somente para ilustrar como usar sistematicamente os diversos parâmetros da fotointerpretação. Composição colorida A análise visual de imagens em bandas individuais é muito trabalhosa. Portanto, uma forma de examinar imagens de satélite é através da combinação de bandas individuais das imagens em Tonalidade Textura Forma Padrão Sombra/Tamanho Associação INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 46 Floresta Textura Rugosa Cor verde Textura rugosa Cor magenta Alta freqüência de copas de árvores cor magenta Ausência de copas de árvores cor magenta Copas não carbonizadas Copas esub-bosque carbonizados Floresta sujeita a fogo de superfície Floresta intacta Floresta carbonizada Floresta sujeita a queima de subbosque Figura 33. Exemplo de uma “chave de interpretação” para o mapeamento de áreas sujeitas a diferentes tipos de danos causados pelo incêndio florestal de Roraima de 1998. composições de bandas, corriqueiramente denominadas “composições coloridas”. Este tipo de imagem permite realçar as feições através das cores. Combinando três bandas de dados em uma única imagem, a composição colorida contém mais informação sobre as feições terrestres do que uma única imagem de uma única banda. Ela torna o trabalho de interpretação mais fácil porque o olho humano pode distinguir melhor cores do que tonalidades de cinza. A Figura 34 é uma composição colorida de uma imagem CBERS da região do Vale do Paraíba, mostrando as áreas urbanas na cor magenta. A vegetação densa é mostrada em tonalidades de verde escuro, enquanto áreas de pastagem aparecem em verde claro. Os monitores de computador utilizam três canhões coloridos, um azul, um verde e outro vermelho. Estes canhões “pintam” a tela com diferentes intensidades de azul, verde e vermelho, de acordo com o brilho de cada pixel para produzir as imagens que vemos. Como os monitores têm somente três canhões de cores, nós somente podemos combinar três bandas espectrais de cada vez para fazer as composições coloridas. Entretanto, podemos usar qualquer banda espectral e associar com qualquer canhão do monitor do computador e observar que cada combinação irá ressaltar certas feições da superfície. Usando-se comprimentos de onda do infravermelho é possível se obter informação que não se poderia perceber com nossos olhos. Interpretação Digital de Imagens A interpretação de dados de sensoriamento remoto, através do uso de computadores, requer o conhecimento dos padrões da radiação refletida e emitida pelas várias feições da superfície INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 47 Figura 34. Composição colorida da imagem CBERS-2, obtida em 30/01/2004 das bandas do sensor CCD-2, bandas 2 (faixa espectral do verde) exibida na cor azul; 3 (faixa espectral do vermelho) exibida na cor vermelha; e, 4 (faixa do infravermelho próximo) exibida na cor verde. Todas as bandas sofreram um realce de contraste. terrestre. Como já vimos, diferentes feições apresentam diferentes padrões de refletância e emitância. A forma como a energia é refletida em cada banda forma um padrão chamado de resposta espectral. Os sistemas computacionais de processamento de imagem auxiliam na tarefa de analisar as imagens e identificar as diferenças em reflectância e, dessa forma, permitir a identificação das feições terrestres. Programas computacionais apropriados facilitam em muito a identificação e análise de séries complexas de dados espectrais, em muitos casos de regiões vastas e complexas. (Figura 35). Figura 35. A interpretação digital ou classificação de imagens requer o uso de um computador com pacotes de software especialmente desenvolvidos para análise de imagens. INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 50 COMENTÁRIOS FINAIS A leitura desta apostila deve ser complementada com exercícios de aula, à medida que o curso vai sendo desenvolvido e complementada também com leituras adicionais, especialmente com o CD-ROM educacional em Sensoriamento Remoto: Aplicações para a Preservação, Conservação e Desenvolvimento Sustentável da Amazônia, do INPE (http://www.dsr.inpe.br/cdrom/). Assim como, poderão ser consultadas no site http://www.agro.unitau.br/sensor_remoto/ várias outras apostilas, publicações e referências bibliográficas complementares. CITAÇÃO Batista, G. T.; Dias, N. W. Introdução ao sensoriamento remoto e processamento de imagens. São José dos Campos: Instituto Nacional de Pesquisas Espaciais, 2005-04-02. (INPE ePrint sid.inpe.br/ePrint@80/2005/04.01.14.06). INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 51 APÊNDICES Conceito de Processamento Digital O pré-processamento de imagens antecede normalmente à interpretação dos dados. O mais freqüentemente usado é o esticamento de contraste (Figura A1). Como os satélites são normalmente projetados para imagearem o globo terrestre inteiro (desertos, oceanos, gelo, neve, florestas, etc.) para uma área especifica normalmente tem-se que fazer um esticamento de contraste para a imagem ficar visível. Figura A1. Pré-Processamento: Esticamento de contraste. O que ocorre no esticamento de contraste é uma mudança (linear no caso) dos valores (ND) menores e maiores que aparecem na cena específica e proporcionalmente nos demais pixels, conforme Figura A2. Figura A2. Contraste Linear. Outras transformações da imagem original comuns no preprocessamento envolvem a “Equalização de Histogramas”, eliminação de Striping (ruído na imagem devido a diferenças de resposta dos detetores no sensor), ou perda de linhas. Registro de Imagens O registro envolve a transformação geométrica de uma imagem para se conformar a uma outra imagem da mesma cena, por exemplo, obtida em uma data diferente ou se conformar a um mapa, equivalendo nesse caso, a uma correção geométrica da imagem para corrigir distorções do sistema de imageamento ou para georreferenciar a imagem (adicionar coordenadas aos pixels da imagem). A Figura A3 ilustra esse processo, onde os pontos A1, A2, .. A4 (pontos na imagem) correspondem aos pontos B1, B2, ...B4 (no mapa) e são chamados pontos de controlem que permitem se estabelecer uma equação para mapear os pixels da imagem aos pixels correspondentes no mapa. INPE ePrint: sid.inpe.br/ePrint@80/2005/04.01.14.06 v1 2005-04-02 52 Figura A3. Pontos de controle para georreferenciamento da imagem (A) ao mapa (B). Para combinar uma imagem de um sensor com uma outra obtida por um sensor com resolução espacial diferente ou mudar o tamanho de uma imagem, ou mesmo mudar a posição de um pixel (registro ou correção geométrica) uma prática comum é a “Reamostragem” que pode ser realizada com diferentes opções para definição do novo valor (ND) do pixel, conforme ilustrado na Figura A4. Figura A4. Reamostragem. Outra técnica de preprocessamento eé a “Filtragem” que envolvem a análise de diversos pixels vizinhos para a definição do ND do pixel central, conforme ilustrado na Figura A5. Figura A5. Filtragem. Várias técnicas envolvendo a “Transformações de Imagens” são utilizadas, como “Subtração de Imagens” que pode ser útil para detecção temporal de mudanças. (Figura A6). Vizinho Mais Próximo Interpolação Bilinear Convolução Cúbica
Docsity logo



Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved