23 resultados para Mapeamento por satélite

em Universidade Federal do Pará


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Realiza o levantamento dos vários tipos de fundações mais comumente utilizadas na construção civil, nas últimas décadas na cidade de Belém PA, definindo suas propriedades, peculiaridades, aspectos técnicos de seu dimensionamento, capacidade de carga e processo executivo. Identifica o tipo de solo, em que estão assentes, com respectivos perfil e características geotécnicas e efetua o mapeamento da cidade por regiões, de acordo com perfil geológico; tipo de fundação; profundidade de assentamento; processo executivo; e custo relativo. O trabalho é dividido em quatro etapas: a primeira correspondente à pesquisa bibliográfica a respeito do estudo das fundações, abrangendo desenvolvimento histórico das fundações e mecânica dos solos, no mundo, Brasil e Belém; pesquisa geotécnica e características do solo de Belém e; estudo dos Sistemas de Informações Geográficas SIG,; a segunda envolvendo levantamento técnico junto as empresas construtoras e firmas de projetos locais, para catalogação e formação de um banco de dados acerca das fundações praticadas na cidade; a terceira relativa a ordenação e análise técnica dos dados coletados e a quarta, consiste na redação do texto final e na elaboração de mapas da cidade, baseados em Sistema de Informação Geográfica - SIG, em escala 1:10.000, concernentes ao tipo de fundação; o perfil geotécnico do terreno; o tipo de solo e processo executivo; profundidade provável para a fundação e, o custo relativo da fundação em relação ao total da obra.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apresenta-se nesta dissertação a proposta de um algoritmo supervisionado de classificação de imagens de sensoreamento remoto, composto de três etapas: remoção ou suavização de nuvens, segmentação e classificação.O método de remoção de nuvens usa filtragem homomórfica para tratar as obstruções causadas pela presença de nuvens suaves e o método Inpainting para remover ou suavizar a preseça de sombras e nuvens densas. Para as etapas de segmentação e classificação é proposto um método baseado na energia AC dos coeficientes da Transformada Cosseno Discreta (DCT). O modo de classificação adotado é do tipo supervisionado. Para avaliar o algioritmo foi usado um banco de 14 imagens captadas por vários sensores, das quais 12 possuem algum tipo de obstrução. Para avaliar a etapa de remoção ou suavização de nuvens e sombras são usados a razão sinal-ruído de pico (PSNR) e o coeficiente Kappa. Nessa fase, vários filtros passa-altas foram comparados para a escolha do mais eficiente. A segmentação das imagens é avaliada pelo método da coincidência entre bordas (EBC) e a classificação é avaliada pela medida da entropia relativa e do erro médio quadrático (MSE). Tão importante quanto as métricas, as imagens resultantes são apresentadas de forma a permitir a avaliação subjetiva por comparação visual. Os resultados mostram a eficiência do algoritmo proposto, principalmente quando comparado ao software Spring, distribuído pelo Instituto Nacional de Pesquisas Espaciais (INPE).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é apresentado um modelo de redes neurais que será utilizado como ferramenta para uso no planejamento energético e na construção de cenários energéticos através da identificação e agrupamento de pixels representativos de classes de água, vegetação e antropização no entorno do reservatório de Tucuruí, Estado do Pará (bacia do rio Tocantins). Para o estudo, foram utilizadas fotografias aéreas ortorretificadas e um recorte da imagem do satélite Landsat, ambos obtidos em agosto de 2001 e classificados utilizando a métrica da mínima distância no software Matlab 7.3.0 (Matrix Laboratory - software de matemática aplicada) e no Arcview 3.2a (programa de Sistemas de Informações Geográficas). Para classificação da área no Matlab, foram utilizadas redes neurais competitivas, mais especificamente as redes de Kohonen que são caracterizadas por realizar um mapeamento de um espaço de dimensão n (número de entradas) para um espaço de dimensão m (número de saídas). Os resultados obtidos no classificador utilizando rede neural e no classificador do Arcview foram semelhantes, mas houve uma divergência no que diz respeito à imagem de alta e média resolução que pode ser justificada pelo fato de que a imagem de alta resolução espacial ocasiona muita variação espectral em algumas feições, gerando dificuldades nas classificações. Esse classificador automático é uma ferramenta importante para identificar oportunidades e potenciais a serem desenvolvidos na construção de cenários energéticos programados. Os resultados deste trabalho confirmam que a imagem de média resolução ainda é a mais indicada para resolver a maioria dos problemas que envolvem identificação de cobertura do solo para utilização em planejamento energético.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

INTRODUÇÃO: A deglutição é um processo fisiológico complexo que acontece por uma sequência motora automática, regulada por um complicado mecanismo neuromotor e neuromuscular que é iniciado de maneira consciente e é resultado da integridade anatômica e funcional de diversas estruturas faciais. É de extrema importância para a nutrição do organismo como um todo. Um dos maiores desafios no campo das ciências é identificar os substratos neurais de comportamentos fisiológicos, incluindo esse processo de deglutição. O desenvolvimento da tecnologia em neuroimagem funcional nos últimos anos está provocando um rápido avanço no conhecimento de funções cerebrais, o que resultou numa explosão de novos achados em neurociência. OBJETIVO: Mapear as regiões de ativação cerebral durante o fenômeno da deglutição por meio do exame de ressonância magnética funcional. MÉTODO: Participaram do estudo quatro indivíduos do sexo feminino, com idade entre 18 e 30 anos, sem alterações neurológicas, estruturais e alimentares. Após a aprovação da Instituição (Clínica Lobo), do Comité de Ética e Pesquisa do Instituto de Ciências da Saúde (ICS) e a aprovação escrita de cada paciente através do termo de consentimento livre e esclarecido, foram submetidos a quatro provas deglutórias, utilizando a técnica de ressonância magnética funcional. RESULTADOS: Foi possível a determinação da ativação dos hemisférios cerebrais e cerebelares e as especificas áreas que os compõem. Mesmo com uma amostragem pequena, os resultados das análises individuais mostraram padrões de acordo com a literatura, conjuntamente com dados novos. DISCUSSÃO: O cerebelo é responsável pela coordenação da ação motora e manutenção da harmonia dos movimentos, posição e equilíbrio do bolo alimentar; o bolbo raquidiano juntamente com o tronco cerebral constitui o centro de atividades reflexas que controla funções ou respostas orgânicas automáticas como a deglutição; o mesencéfalo é a parte do encéfalo que coordena a informação visual; o tálamo encaminha quase todo o tipo de informação sensorial para as zonas específicas do córtex cerebral; o hipotálamo, importante na experimentação das sensações de prazer, regula as funções homeostáticas do corpo, gustação, olfação, salivação, interagindo com o sistema nervoso autônomo e o sistema límbico está ligado ao controle e direção das reações emocionais, sob a ação da amígdala, no processamento de odores e no armazenamento de conteúdos da memória, aqui através do hipocampo. CONCLUSÃO: O ato de deglutir é um processo complexo, ativando muitas áreas cerebrais, dentre elas podemos destacar a gustativa, mental/visual e a olfativa e que é iniciado muito antes dos processos mecânicos envolvidos, conforme demonstrado pelas áreas corticais e subcorticais ativadas. A área olfativa foi a mais notadamente destacada nas imagens colhidas pela Rmf.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apresentamos três novos métodos estáveis de inversão gravimétrica para estimar o relevo de uma interface arbitrária separando dois meios. Para a garantia da estabilidade da solução, introduzimos informações a priori sobre a interface a ser mapeada, através da minimização de um (ou mais) funcional estabilizante. Portanto, estes três métodos se diferenciam pelos tipos de informação físico-geológica incorporados. No primeiro método, denominado suavidade global, as profundidades da interface são estimadas em pontos discretos, presumindo-se o conhecimento a priori sobre o contraste de densidade entre os meios. Para a estabilização do problema inverso introduzimos dois vínculos: (a) proximidade entre as profundidades estimadas e verdadeiras da interface em alguns pontos fornecidas por furos de sondagem; e (b) proximidade entre as profundidades estimadas em pontos adjacentes. A combinação destes dois vínculos impõe uma suavidade uniforme a toda interface estimada, minimizando, simultaneamente em alguns pontos, os desajustes entre as profundidades conhecidas pelas sondagens e as estimadas nos mesmos pontos. O segundo método, denominado suavidade ponderada, estima as profundidades da interface em pontos discretos, admitindo o conhecimento a priori do contraste de densidade. Neste método, incorpora-se a informação geológica que a interface é suave, exceto em regiões de descontinuidades produzidas por falhas, ou seja, a interface é predominantemente suave porém localmente descontínua. Para a incorporação desta informação, desenvolvemos um processo iterativo em que três tipos de vínculos são impostos aos parâmetros: (a) ponderação da proximidade entre as profundidades estimadas em pontos adjacentes; (b) limites inferior e superior para as profundidades; e (c) proximidade entre todas as profundidades estimadas e um valor numérico conhecido. Inicializando com a solução estimada pelo método da suavidade global, este segundo método, iterativamente, acentua as feições geométricas presentes na solução inicial; ou seja, regiões suaves da interface tendem a tornar-se mais suaves e regiões abruptas tendem a tornar-se mais abruptas. Para tanto, este método atribui diferentes pesos ao vínculo de proximidade entre as profundidades adjacentes. Estes pesos são automaticamente atualizados de modo a acentuar as descontinuidades sutilmente detectadas pela solução da suavidade global. Os vínculos (b) e (c) são usados para compensar a perda da estabilidade, devida à introdução de pesos próximos a zero em alguns dos vínculos de proximidade entre parâmetros adjacentes, e incorporar a informação a priori que a região mais profunda da interface apresenta-se plana e horizontal. O vínculo (b) impõe, de modo estrito, que qualquer profundidade estimada é não negativa e menor que o valor de máxima profundidade da interface conhecido a priori; o vínculo (c) impõe que todas as profundidades estimadas são próximas a um valor que deliberadamente viola a profundidade máxima da interface. O compromisso entre os vínculos conflitantes (b) e (c) resulta na tendenciosidade da solução final em acentuar descontinuidades verticais e apresentar uma estimativa suave e achatada da região mais profunda. O terceiro método, denominado mínimo momento de inércia, estima os contrastes de densidade de uma região da subsuperfície discretizada em volumes elementares prismáticos. Este método incorpora a informação geológica que a interface a ser mapeada delimita uma fonte anômala que apresenta dimensões horizontais maiores que sua maior dimensão vertical, com bordas mergulhando verticalmente ou em direção ao centro de massa e que toda a massa (ou deficiência de massa) anômala está concentrada, de modo compacto, em torno de um nível de referência. Conceitualmente, estas informações são introduzidas pela minimização do momento de inércia das fontes em relação ao nível de referência conhecido a priori. Esta minimização é efetuada em um subespaço de parâmetros consistindo de fontes compactas e apresentando bordas mergulhando verticalmente ou em direção ao centro de massa. Efetivamente, estas informações são introduzidas através de um processo iterativo inicializando com uma solução cujo momento de inércia é próximo a zero, acrescentando, em cada iteração, uma contribuição com mínimo momento de inércia em relação ao nível de referência, de modo que a nova estimativa obedeça a limites mínimo e máximo do contraste de densidade, e minimize, simultaneamente, os desajustes entre os dados gravimétricos observados e ajustados. Adicionalmente, o processo iterativo tende a "congelar" as estimativas em um dos limites (mínimo ou máximo). O resultado final é uma fonte anômala compactada em torno do nível de referência cuja distribuição de constraste de densidade tende ao limite superior (em valor absoluto) estabelecido a priori. Estes três métodos foram aplicados a dados sintéticos e reais produzidos pelo relevo do embasamento de bacias sedimentares. A suavidade global produziu uma boa reconstrução do arcabouço de bacias que violam a condição de suavidade, tanto em dados sintéticos como em dados da Bacia do Recôncavo. Este método, apresenta a menor resolução quando comparado com os outros dois métodos. A suavidade ponderada produziu uma melhoria na resolução de relevos de embasamentos que apresentam falhamentos com grandes rejeitos e altos ângulos de mergulho, indicando uma grande potencialidade na interpretação do arcabouço de bacias extensionais, como mostramos em testes com dados sintéticos e dados do Steptoe Valley, Nevada, EUA, e da Bacia do Recôncavo. No método do mínimo momento de inércia, tomou-se como nível de referência o nível médio do terreno. As aplicações a dados sintéticos e às anomalias Bouguer do Graben de San Jacinto, California, EUA, e da Bacia do Recôncavo mostraram que, em comparação com os métodos da suavidade global e ponderada, este método estima com excelente resolução falhamentos com pequenos rejeitos sem impor a restrição da interface apresentar poucas descontinuidades locais, como no método da suavidade ponderada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Para a construção de edifícios o engenheiro necessita de informações geotécnicas do subsolo de rasa e média profundidades para projetar fundações. Com a implantação do projeto de Macrodrenagem da Bacia do Una de Belém, áreas que foram beneficiadas terão, num futuro próximo, um grande potencial para a ocupação e a construção de edifícios devido sua localização privilegiada. Por isso, essa área foi escolhida para investigação geofísica com o objetivo de mapeamento das camadas litológicas e consequentemente o topo da camada rija, onde geralmente se posicionam as fundações prediais profundas. Os métodos geofísicos utilizados foram de sondagem elétrica com arranjo Schlumberger, na determinação da resistividade aparente (pα) em subsuperfície, e um eletromagnético, o radar de penetração no solo, através de um perfil, como uma ferramenta auxiliar das informações. As curvas de resistividade aparente obtidas com as sondagens Schlumberger foram processadas por inversão considerando um modelo de camadas planas, horizontais, homogêneas e isotrópicas e sua interpretação foi auxiliada por informações litológicas obtidas por sondagens a percussão com ensaio SPT. Assim, uma vez determinadas as variações de resitividades, foram confeccionadas três seções geoelétricas-litológicas e um mapa de contorno de profundidade do topo da camada rija na área estudada, com a finalidade de auxiliar o engenheiro em projetos de prédios nesta área.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo principal deste trabalho é avaliar o uso dos dados de altimetria de satélites para mapear a superfície do potencial gravitacional (geóide) no mar. Esta avaliação se faz por comparações da resolução e precisão entre os dados de altimetria processados numa superfície equipotencial (o mar) e dados obtidos a partir de levantamentos convencionais. Uma vez processada a superfície equipotencial, quantidades tais como a anomalia "ar livre" juntamente com o desvio vertical podem ser calculadas. Os dados altimétricos ("altura do mar") utilizados neste trabalho foram coletados pelo satélite GEOSAT. Este satélite rastreou diversas áreas oceânicas do globo processando 44 ciclos em dois anos. Alguns pesquisadores utilizaram os valores médios da "altura do mar" deste satélite para melhoramentos em precisão e resolução dos registros. Estes valores tratados estão disponíveis em NOAA (National Oceanic and Atmospheric Administration) sendo deste modo repassados à UFPa para utilização nesta tese. Os dados de gravimetria marinha utilizados neste trabalho são aqueles obtidos do levantamento "Equatorial Atlantic" (EQUANT I e II) resultantes de uma pesquisa conjunta entre várias instituições com objetivos científicos de conhecer o comportamento da margem equatorial Brasileira. Para comparação e integração entre os dois tipos de dados obtidos através de fontes distintas (medidas de satélite e do navio), poder-se-ia obter a aceleração vertical numa superfície equipotencial partindo-se de um tratamento algébrico dos dados coletados por rastreamento altimétrico do satélite Geosat ou alternativamente poder-se-ia processar transformações dos dados de gravimetria marinha em uma superfície equipotencial equivalente. Em decorrência de diferenças no espaçamento entre as linhas dos levantamentos, ou seja, as linhas das trajetórias do satélite estão largamente espaçadas em comparação com aquelas do levantamento marinho, optou-se por transformar os dados gravimétricos do navio em uma superfície equipotencial. Neste tipo de transformação, consideraram-se vários fatores tais como efeitos "aliasing", nível de ruídos nos levantamentos do navio, redução ao geóide (correção "ar livre"), bem como erros computacionais durante as transformações. Com a supressão parcial desses efeitos (enfatizando o "aliasing") encontrou-se forte correlação entre os dois conjuntos de dados verificando-se um nível de coerência satisfatório a partir do comprimento de onda de 11 km. Comparando-se este resultado com o nível de resolução do satélite Geosat largamente estudado por outros pesquisadores enfatiza-se que de fato a resolução dos valores médios (2 anos) do satélite Geosat aproxima-se da resolução dos levantamentos do Equant I e Equant II.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os principais objetivos deste trabalho são propor um algoritmo eficiente e o mais automático possível para estimar o que está coberto por regiões de nuvens e sombras em imagens de satélite; e um índice de confiabilidade, que seja aplicado previamente à imagem, visando medir a viabilidade da estimação das regiões cobertas pelos componentes atmosféricos usando tal algoritmo. A motivação vem dos problemas causados por esses elementos, entre eles: dificultam a identificação de objetos de imagem, prejudicam o monitoramento urbano e ambiental, e desfavorecem etapas cruciais do processamento digital de imagens para extrair informações ao usuário, como segmentação e classificação. Através de uma abordagem híbrida, é proposto um método para decompor regiões usando um filtro passa-baixas não-linear de mediana, a fim de mapear as regiões de estrutura (homogêneas), como vegetação, e de textura (heterogêneas), como áreas urbanas, na imagem. Nessas áreas, foram aplicados os métodos de restauração Inpainting por suavização baseado em Transformada Cosseno Discreta (DCT), e Síntese de Textura baseada em modelos, respectivamente. É importante salientar que as técnicas foram modificadas para serem capazes de trabalhar com imagens de características peculiares que são obtidas por meio de sensores de satélite, como por exemplo, as grandes dimensões e a alta variação espectral. Já o índice de confiabilidade, tem como objetivo analisar a imagem que contém as interferências atmosféricas e daí estimar o quão confiável será a redefinição com base no percentual de cobertura de nuvens sobre as regiões de textura e estrutura. Tal índice é composto pela combinação do resultado de algoritmos supervisionados e não-supervisionados envolvendo 3 métricas: Exatidão Global Média (EGM), Medida De Similaridade Estrutural (SSIM) e Confiança Média Dos Pixels (CM). Finalmente, verificou-se a eficácia destas metodologias através de uma avaliação quantitativa (proporcionada pelo índice) e qualitativa (pelas imagens resultantes do processamento), mostrando ser possível a aplicação das técnicas para solucionar os problemas que motivaram a realização deste trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Hoje, cerca de 46% da água potável consumida na região de Belém provém dos mananciais subterrâneos, o que mostra a grande importância desta fonte, mesmo em uma região rica em água superficial (rios, igarapés, furos e até mesmo uma baía). Isso decorre da falta de execução do planejamento previsto, além de que os custos de obras de captação de águas superficiais são muito elevados. A alternativa para Belém tem sido a água subterrânea, como um bom, saudável e econômico paliativo. A existência de uma enorme quantidade desses recursos nos sedimentos Barreiras e na Formação Pirabas contribui para esta alternativa. Os sedimentos Barreiras foram depositados em ambiente fluvial e estuarino, enquanto que a Formação Pirabas possui fácies de origem estearina, de mangue e marinha. No contexto apresentado, mostra-se então a necessidade de investigar tais recursos com o intuito de fazer ótimo proveito destes. Para tanto, foram usadas duas metodologias geofísicas de forma integrada: a Sondagem Elétrica Vertical (SEV) e a Perfilagem Geofísica de Poço, usando raios gama, potencial espontâneo e resistência elétrica. Pode-se discernir dois ambientes aquíferos. O primeiro até cerca de 160 m de profundidade, em que prevalecem corpos arenosos em formas de canal e lentes entrecortados ou não, imersos em uma matriz argilosa. O segundo é caracterizado por pacotes arenosos bastante extensos com lentes de argila, cuja profundidade é desde 160 m até 285 m, aproximadamente. O consumo de água da porção superior é adequado às residências e condomínios, visto o custo elevado de obras de captação a grandes profundidades. Já o abastecimento público deve utilizar a porção inferior, devido às vazões bastante elevadas (maiores que 100 m3/h) e devido à garantia de água de boa qualidade, protegida de ações antrópicas, como vem sendo feito.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O sistema de águas subterrâneas vigentes na cidade de Manaus (AM) é pertencente ao Aqüífero Alter do Chão, o qual é caracterizado por fácies sedimentares arenosa, argilosa, areno-argilosa e “Arenito Manaus” depositadas em ambiente fluvial e flúvio-deltáico. Estima-se que 32.500 km3 de água possam ser explorados, fornecendo poços confinados a semiconfinados com vazão de até 300 m3/h em poços de aproximadamente 220 m de profundidade. Grandes distorções, contudo, têm sido notadas, Manaus, em foco neste trabalho, tem poços com baixo rendimento (de 78 m3/h), devido à má colocação de filtros em conseqüência da falta de informações sobre os aqüíferos. Através do uso integrado de perfilagem geofísica de poço (perfis de raio gama, de potencial espontâneo e de resistência elétrica), sondagem elétrica vertical e informações litológicas de amostragem de calha, mapearam-se camadas litológicas permo-porosas com elevado potencial aqüífero nas zonas norte e leste da cidade de Manaus. Foram identificadas duas zonas aqüíferas. A primeira zona é marcada pelos 50 m iniciais de profundidade. Nesta zona distinguem-se três tipos de litologias: argilosa, arenosa e areno-argilosa com as mais variadas dimensões. Estas duas últimas litologias apresentam elevado potencial aqüífero. Mesmo assim, nesta zona não há tendência a conter um volume de água considerável, devido à limitada continuidade lateral dos corpos arenosos e estar sujeita aos estorvos antrópicos superficiais. Portanto, não indicada para explotação de água em grandes quantidades. A segunda zona se estende a partir dos 50 m até aproximadamente 290 m de profundidade. É caracterizada por dois tipos de litologias: arenosa e areno-argilosa. Ao contrário da primeira, a esta profundidade há propensão do armazenamento e exploração de água. Apresenta litologias com elevado potencial aqüífero, cujos corpos arenosos são mais espessos e possuem uma maior continuidade lateral que os da zona 1; e valores da veza o de quase 300 m3/h. Serve, então, para abastecimento público por causa das boas vazões, garantia de água de boa qualidade protegida de ações antrópicas. A análise feita quanto à variação lateral, em mapas, de resistência transversal e condutância longitudinal, revelou que nas porções inferiores a 50 m de profundidade os setores NE e SW correspondem às zonas permeáveis. Portanto, possuem menos faixas argilosas, sendo considerados os setores mais transmissivos do sistema aqüífero. Os poços com profundidade maiores que 50 m recomenda-se sua locações nas faixas NNW, SW e extremo sul, em virtude dos resultados obtidos através da perfilagens geofísicas de poços, as quais delineiam camadas permo-porosas de elevado potencial aquífero para a área estudada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O problema do mapeamento de uma interface separando dois meios homogêneos tem sido tradicionalmente resolvido através da continuação para baixo da anomalia gravimétrica observada. Este procedimento requer a utilização de um filtro passa-baixa ou de um parâmetro de amortecimento, que tendem a diminuir a resolução do relevo estimado da interface. Além disso, o uso da continuação para baixo implica supor (desnecessariamente) que a interface é uma superfície harmônica. Desta forma, a utilização da continuação para baixo é restrita a interfaces que apresentam um relevo suave relativamente à sua profundidade média. As restrições impostas pela continuação para baixo do campo gravimétrico são reduzidas na técnica de inversão proposta para este estudo, cujo objetivo é mapear a interface crosta-manto baseada na incorporação de informações a priori sobre o mínimo momento de inércia da fonte causadora, em relação a um eixo de concentração de massa pré-estabelecido e coincidente com o topo da fonte anômala. Além da introdução de informações sobre o mínimo momento, foi incluída também a possibilidade de haver variação lateral e em profundidade de densidade em setores previamente estabelecidos, o que permite estender a aplicação desta técnica a situações geológicas mais complexas que envolvam a reconstituição de corpos justapostos, que sejam de diferentes naturezas, tais como aqueles presentes em zonas de transição crustal. O método de inversão apresentado foi avaliado em testes usando dados sintéticos e os resultados obtidos mostraram a eficiência desta técnica em recuperar corpos alongados horizontalmente, que apresentem como topo ou base, interfaces arbitrárias a serem mapeadas. Foi também constatada a eficácia do método em reconstituir corpos que comportem variação lateral de densidade que pudessem retratar situações em que se deseja investigar a natureza do embasamento em regiões de transição crustal. Com base nos resultados destes testes, a técnica foi então empregada na inversão gravimétrica de cinco perfis do LEPLAC IV que cruzam a região oceânica adjacente à margem continental sudeste brasileira. Os resultados desta aplicação permitiram inferir a natureza dos corpos que constituem o arcabouço estrutural da região onde encontram-se inseridas a Dorsal de São Paulo e a Zona de Fratura de Porto Alegre, assim como mapear a Moho subjacente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos últimos 30 anos no Brasil, o mapeamento de camada bauxítica tem sido sempre efetuado através de perfilagens de poços. Neste estudo, aplicou-se o método da sísmica de refração rasa pela primeira vez, em cerca de 3.000m de perfis, em caráter experimental em algumas localidades ao longo da rodovia BR-10, assim como no Platô Esperança (região de Jabuti-PA) e perto da cidade de Açailândia (MA); com objetivo de delimitar a camada de bauxita. Embora se tenha utilizado, em algumas ocasiões, durante a interpretação, o método de distância crítica no cálculo de profundidade, foi possível, mediante o emprego do Método Recíproco Generalizado (GRM), o processamento e interpretação dos dados, para se obter a delimitação contínua da camada investigada. O GRM apresenta vantagens sobre os métodos tradicionais, tais como poder delimitar camadas onduladas, detetar camadas escondidas, além da sensibilidade para camadas com mergulho até 20°. A partir dós gráficos da análise de velocidade, foi calculada para a camada de bauxita uma velocidade média de 840 m/s, e mediante o emprego dos tempos de profundidade chegou-se a sua delimitação: ela possui um comportamento irregular, tendo uma espessura média de 5m. A pesquisa geofísica realizada nas três áreas-piloto tem grande importância porque o método utilizado poderá ser aplicado a outras regiões, em condições geológicas semelhantes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apresentamos um novo método de mapeamento de magnetização aparente no plano horizontal que combina a minimização da entropia de primeira ordem com a maximização da entropia de ordem zero dos contrastes de magnetização estimados. O modelo interpretativo é uma malha de prismas verticais justapostos ao longo de ambas as direções horizontais. Presumimos que o topo e a base das fontes magnéticas são planos e horizontais e estimamos os contrastes de magnetização dos prismas. A minimização da entropia de primeira ordem favorece soluções de bordas abruptas e a maximização da entropia de ordem zero evita a tendência de a fonte estimada ser um único prisma. Desta forma, uma combinação judiciosa de ambos os vínculos pode levar a soluções caracterizadas por regiões de contraste de magnetização virtualmente constantes separadas por descontinuidades abruptas. Aplicamos este método a dados sintéticos produzidos por intrusões simuladas em sedimentos e que apresentam topo e base planos e horizontais. Comparando nossos resultados com aqueles obtidos pelo vínculo da suavidade, mostramos que ambos os métodos produzem uma boa e equivalente localização do centro das fontes. Todavia, a regularização entrópica delineia as bordas do corpo com maior detalhe. Ambos os vínculos (suavidade e regularização entrópica) foram aplicados a uma anomalia real sobre um escarnito magnético em Butte Valley, Nevada, Estados Unidos. A regularização entrópica produziu uma estimativa da distribuição de magnetização com bordas mais abruptas, menor volume e maiores valores de magnetização aparente comparados àqueles produzidos pelo vinculo da suavidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho trata da aplicação de métodos geofísicos, numa área piloto da região Bragantina, NE do Pará, com a finalidade de auxiliar no mapeamento geológico. A área acha-se coberta por Sedimentos Terciários espessos e apresenta ocorrências de rochas industriais como calcário e granito, representando uma superfície aflorante menor que 5% da área. Estudos geoquímicos, realizados por Goulart (1978), revelaram que no horizonte A, é impossível diferenciar os materiais de superfície quanto às suas origens. Isto torna difícil o mapeamento geológico de superfície, podendo levar a extrapolações exageradas dos contatos, o que ocorre no mapeamento pré-existente. Os métodos geofísicos aplicados foram: Eletroresistividade e Magnetometria. Também foram realizados alguns furos de sondagens mecânicas. Os resultados obtidos contribuíram para um melhor conhecimento das feições estruturais mapeadas, bem como tornou possível a descoberta de outras estruturas importantes. Definiram-se também duas áreas para subsequente estudo de detalhe, visando a separação do calcário, em melhor e pior qualidade para a fabricação do cimento. Quanto à região dos granitos, recomenda-se que seja feito o seu mapeamento sob forma de "ilhas de granito" em meio à espessas coberturas de solos e sedimentos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os estudos ambientais necessitam de informações sobre a cobertura e o uso da terra. Este trabalho apresenta a aplicação de dados de sensores remotos orbitais (óticos e de radares) na validação de padrões de uso e cobertura do solo na planície costeira amapaense para fins de mapeamento e reconhecimento da dinâmica natural e antrópica. Esta costa é submetida a uma dinâmica intensa devido à magnitude dos processos costeiros (marés-pororoca), sua localização geográfica, influenciada pelo rio Amazonas e pela Zona de Convergência Intertropical, e processos antrópicos associados à bubalinocultura. A análise foi realizada aplicando-se dados de satélite (JERS-1, RADARSAT-1, Landsat 7 e DEM do SRTM) digitalmente processados em abordagem multisensor, multiescala e multitemporal, correlacionada com dados pretéritos e informações de campo. A análise dos produtos gerados e dados colaterais permitiu distinguir oito padrões de uso e cobertura do solo: florestas de mangue, florestas de várzeas, campos arbustivos, áreas de vegetação campestre, campo antrópico, zona de intermaré, canal estuarino e lagos, além de feições morfológicas lineares associadas a estes padrões. Estas informações são importantes para o mapeamento dos ambientes costeiros e fundamentais para o reconhecimento da dinâmica na região.