21 resultados para Segmentación espectral
Resumo:
Este trabalho representa um estudo de dispersão da componente vertical da onda de superfície de Rayleigh com trajetórias na plataforma Sulamericana. Os registros utilizados são provenientes das estações localizadas no território Brasileiro; sendo a do Rio de Janeiro (RDJ), a de Brasília (BDF), a de Caicó (CAI) e a de Belém (BEB), pois estas são as únicas estações sismológicas no Brasil que têm sensores de período longo e que servem para o estudo de dispersão no intervalo de 4 a 50 segundos, aqui realizados. Os terremotos utilizados estão localizados ao longo da parte leste da cadeia Andina e dentro da plataforma Sulamericana com trajetórias tipicamente continental. Foram selecionados 34 eventos com a utilização dos seguintes critérios práticos: a localização, a magnitude mb e a profundidade, ocorridos durante o período de Janeiro de 1978 até Junho de 1987. O estudo de dispersão aqui abordado significa a determinação da velocidade de grupo e das amplitudes espectrais correspondentes aos harmônicos fundamental e primeiro superior. Normalmente os harmônicos de ordem segunda ou maior são raramente disponíveis na observação. Dois tipos de medidas foram feitas: (i) velocidade de grupo vs. período e (ii) amplitude vs. período. Os estudos de dispersão são fundamentais para determinação da estrutura da crosta e manto superior que estão diretamente relacionados com os fenômenos geológicos. Neste trabalho, regionalização é definida como a identificação das diferentes formas de curvas de dispersão, que estão relacionadas com as trajetórias epicentro-estação ao longo da plataforma Sulamericana e que venham ter uma correlação geológica como está descrito no item 4.3 deste trabalho. A distribuição dos epicentros se faz desde o extremo sul da Argentina até o extremo norte da Venezuela, objetivando iniciar com este trabalho uma sistemática voltada aos estudos de regionalização da plataforma Sulamericana na nossa instituição. Neste trabalho foram observados três tipos distintos de curvas em 27 trajetórias e agrupadas por famílias 1,2 e 3 respectivamente, onde procurou-se correlacionar suas diferentes formas com a geologia regional da plataforma Sulamericana. A obtenção da curva de dispersão foi feita através da técnica do filtro múltiplo (Dziewonski et al, 1969). Este filtro tem a propriedade de separar os harmônicos através das suas velocidades de grupo para cada frequência selecionada, e também de recuperar as amplitudes características dos harmônicos (Herrmann, 1973). O desenvolvimento teórico do filtro bem como suas limitações e forma de uso são tratados por Dziewonski et al (1972). Como parte do trabalho há a implantação, adaptações e o desenvolvimento de parte do fluxograma do filtro múltiplo, bem como a estruturação da digitalização dos dados para o processamento e interpretação não-automática dos resultados do processamento.
Resumo:
Os principais objetivos deste trabalho são propor um algoritmo eficiente e o mais automático possível para estimar o que está coberto por regiões de nuvens e sombras em imagens de satélite; e um índice de confiabilidade, que seja aplicado previamente à imagem, visando medir a viabilidade da estimação das regiões cobertas pelos componentes atmosféricos usando tal algoritmo. A motivação vem dos problemas causados por esses elementos, entre eles: dificultam a identificação de objetos de imagem, prejudicam o monitoramento urbano e ambiental, e desfavorecem etapas cruciais do processamento digital de imagens para extrair informações ao usuário, como segmentação e classificação. Através de uma abordagem híbrida, é proposto um método para decompor regiões usando um filtro passa-baixas não-linear de mediana, a fim de mapear as regiões de estrutura (homogêneas), como vegetação, e de textura (heterogêneas), como áreas urbanas, na imagem. Nessas áreas, foram aplicados os métodos de restauração Inpainting por suavização baseado em Transformada Cosseno Discreta (DCT), e Síntese de Textura baseada em modelos, respectivamente. É importante salientar que as técnicas foram modificadas para serem capazes de trabalhar com imagens de características peculiares que são obtidas por meio de sensores de satélite, como por exemplo, as grandes dimensões e a alta variação espectral. Já o índice de confiabilidade, tem como objetivo analisar a imagem que contém as interferências atmosféricas e daí estimar o quão confiável será a redefinição com base no percentual de cobertura de nuvens sobre as regiões de textura e estrutura. Tal índice é composto pela combinação do resultado de algoritmos supervisionados e não-supervisionados envolvendo 3 métricas: Exatidão Global Média (EGM), Medida De Similaridade Estrutural (SSIM) e Confiança Média Dos Pixels (CM). Finalmente, verificou-se a eficácia destas metodologias através de uma avaliação quantitativa (proporcionada pelo índice) e qualitativa (pelas imagens resultantes do processamento), mostrando ser possível a aplicação das técnicas para solucionar os problemas que motivaram a realização deste trabalho.
Resumo:
A finalidade deste trabalho é apresentar um estudo de caso dos carbonatos terciários da bacia do Pará-Maranhão, do ponto de vista da interpretação dos perfis registrados nessa área. Dois poços-chave, X e Y, foram escolhidos para o estudo. O tratamento dos dados foi realizado utilizando os recursos do programa LOGCALC, instalado no computador IBM-3090, da Petrobrás, e, também, o sistema DLPS, instalado no VAX-8600, da Universidade Federal de Pará. A avaliação da porosidade e, principalmente, das saturações, é dificultada pelas características não-convencionais dos carbonatos. A litologia é complexa, a salinidade da água de formação é relativamente baixa, em torno de 10.000 ppm de NaCl, a densidade das rochas é elevada e os carbonatos estão fraturados. Para diminuir o efeito da composição mineralógica, foi necessário discriminar os diferentes tipos litológicos. Três tipos de carbonatos foram identificados: calcário, calcário arenoso e calcário dolomitizado. A identificação litológica permite maior controle dos parâmetros da matriz e dos expoentes de porosidade das rochas, conduzindo a estimativas de porosidade e de saturações mais confiáveis. A presença de fraturas influencia, marcadamente, a resposta dos perfis, conforme pode ser notado no perfil de identificação de fraturas, nos perfis de resistividade, de densidade e na curva de raios-gama espectral do poço X. O expoente de porosidade, m, tomado do gráfico de Pickett, é frequentemente inferior a 1,5, valor considerado inerente a rochas fraturadas. Os modelos de Rasmus (1983) e de Porter et al.(1969), foram testados para calcular as saturações de água e óleo. A equação tradicional de Archie (1942), com a e m apropriados, também foi aplicada neste trabalho. O esquema para estimativa de saturações que conduz a resultados mais coerentes com os dados dos testes de formação, nos intervalos fraturados, é a saturação de Rasmus, calculada com a relação de Archie aplicada com o expoente de porosidade variável, tomado do modelo de Rasmus.
Resumo:
Anomalias gravimétricas ar-livre de perfis perpendiculares a margem continental do tipo passiva apresentam uma configuração padrão. Esta configuração é, satisfatoriamente, explicada por um modelo geofísico formado por uma distribuição de descontinuidades horizontais bidimensionais. Um processo automático de busca aleatória é proposto para a interpretação quantitativa dos dados. Através do método de poliedros flexíves (Simplex), os parâmetros principais do modelo - o contraste de densidade, a profundidade, o rejeito e a localização de cada descontinuidade, puderam ser encontrados, admitindo uma relação número de pontos/número de parâmetros, a determinar, conveniente. Sobre a região do talude, as anomalias ar-livre da margem continental podem ser explicadas por uma única descontinuidade horizontal (degrau simples); e tendo que a resposta dos dados gravimétricos no domínio do número de onda contém informações sobre esta anomalia, foi proposto um procedimento gráfico iterativo para a análise espectral deste sinal. Aplicando a transformada de Fourier é possível determinar a profundidade e o rejeito da descontinuidade, e conhecendo estes parâmetros a densidade é calculada unicamente. O objetivo básico do uso destes procedimentos seria combinar os dois métodos de interpretação nos domínios do espaço e do número de onda, com a finalidade de obter soluções vinculadas mais plausíveis quanto ao contexto geológico esperado para a área estudada. Os dois procedimentos de interpretação foram aplicados nas anomalias gravimétricas ar-livre da margem continental norte brasileira, setor nordeste, abrangendo os estados do Maranhão ao Rio Grande do Norte. As respectivas capacidade de resolução de cada procedimento foram então analisadas. Demonstrou-se que a inversão realizada diretamente no domínio do espaço é mais favorável na interpretação das anomalias ar-livre, embora o tratamento espectral seja relativamente mais simples.
Resumo:
As florestas tropicais da Amazônia historicamente foram alvo de práticas pouco sustentáveis de uso da terra, restando-lhes as cicatrizes de degradação advinda da exploração madeireira predatória, do uso indiscriminado do fogo, das altas taxas de desmatamento e de outras atividades que interferem nas ações de conservação da biodiversidade desta floresta. A atuação do Estado neste cenário é necessária através de políticas que incentivem formas de uso mais sustentáveis, como é o caso das concessões florestais que buscam através do manejo florestal, contribuir para a conservação dos recursos naturais e da manutenção da biodiversidade. A geração de produtos como o Índice de Vegetação por Diferença Normalizada, Modelo Linear de Mistura Espectral e Fração de Abertura de Dossel foram realizados no intuito de criar elementos de interpretação e análise da variável abertura de dossel. Esta pesquisa teve como área de estudo a Unidade de Manejo Florestal I no Conjunto de Glebas Mamuru-Arapiuns, região oeste do estado do Pará; onde foram quantificados e avaliados a abertura de dossel nessa área de concessão florestal, através de imagens multiespectrais e fotos hemisféricas, com vistas a analisar a degradação e a qualidade do manejo executado nesta área. Os resultados obtidos mostraram que é possível estabelecer um processo de monitoramento com o uso dos sensores e técnicas aplicados, uma vez que os dados de MLME, em especial a imagem-fração solo apresentaram forte relação de covariância com os dados obtidos em campo através de fotos hemisféricas, permitindo considera-lo como uma boa ferramenta de alerta para as ações de monitoramentos das florestas amazônicas. Desta forma é possível tornar a gestão florestal mais acessível tanto ao poder público, quanto a entidades não governamentais ou privadas visando fiscalizar as ações de exploração florestal e agregar as populações que vivem nestas áreas tanto oportunidades de renda quanto a conservação florestal.
Resumo:
A natureza rígida de redes de multiplexação por divisão de comprimentos de onda (WDM) provoca exploração ineficiente de capacidade espectral. Dessa forma, redes flexíveis são um possível avanço para a tecnologia óptica por viabilizarem melhor aproveitamento dos recursos espectrais disponíveis. Com o intuito de aferir a possível aplicabilidade de redes flexíveis, este trabalho propõe uma estratégia de avaliação de desempenho baseada em simulações e comparações entre resultados obtidos. Para tanto, várias simulações a tempo discreto foram implementadas em dois simuladores desenvolvidos em Matlab a fim de analisar diferentes políticas de alocação de espectro (First-Fit, Smallest-Fit, Exact-Fit e Random-Fit) em três algoritmos de roteamento por caminhos ópticos não híbridos: o roteamento por fragmentação externa (FA), por caminhos mais curtos com máxima eficiência de reuso espectral (SPSR) e por balanceamento de cargas (BLSA). Duas topologias de rede foram utilizadas: um pequeno subconjunto de 6 nós da Cost239 e uma topologia aleatória de 7 nós. Admitindo-se que efeitos de camada física não foram configurados como restrições, foram realizadas comparações entre as diversas técnicas estudadas, objetivando-se apontar, baseado nas especificidades dos cenários propostos, qual o método mais adequado de alocação espectral em termos de frequência de bloqueio entre as quatro políticas de alocação de espectro consideradas.