24 resultados para coerência
Resumo:
O objetivo principal deste trabalho é avaliar o uso dos dados de altimetria de satélites para mapear a superfície do potencial gravitacional (geóide) no mar. Esta avaliação se faz por comparações da resolução e precisão entre os dados de altimetria processados numa superfície equipotencial (o mar) e dados obtidos a partir de levantamentos convencionais. Uma vez processada a superfície equipotencial, quantidades tais como a anomalia "ar livre" juntamente com o desvio vertical podem ser calculadas. Os dados altimétricos ("altura do mar") utilizados neste trabalho foram coletados pelo satélite GEOSAT. Este satélite rastreou diversas áreas oceânicas do globo processando 44 ciclos em dois anos. Alguns pesquisadores utilizaram os valores médios da "altura do mar" deste satélite para melhoramentos em precisão e resolução dos registros. Estes valores tratados estão disponíveis em NOAA (National Oceanic and Atmospheric Administration) sendo deste modo repassados à UFPa para utilização nesta tese. Os dados de gravimetria marinha utilizados neste trabalho são aqueles obtidos do levantamento "Equatorial Atlantic" (EQUANT I e II) resultantes de uma pesquisa conjunta entre várias instituições com objetivos científicos de conhecer o comportamento da margem equatorial Brasileira. Para comparação e integração entre os dois tipos de dados obtidos através de fontes distintas (medidas de satélite e do navio), poder-se-ia obter a aceleração vertical numa superfície equipotencial partindo-se de um tratamento algébrico dos dados coletados por rastreamento altimétrico do satélite Geosat ou alternativamente poder-se-ia processar transformações dos dados de gravimetria marinha em uma superfície equipotencial equivalente. Em decorrência de diferenças no espaçamento entre as linhas dos levantamentos, ou seja, as linhas das trajetórias do satélite estão largamente espaçadas em comparação com aquelas do levantamento marinho, optou-se por transformar os dados gravimétricos do navio em uma superfície equipotencial. Neste tipo de transformação, consideraram-se vários fatores tais como efeitos "aliasing", nível de ruídos nos levantamentos do navio, redução ao geóide (correção "ar livre"), bem como erros computacionais durante as transformações. Com a supressão parcial desses efeitos (enfatizando o "aliasing") encontrou-se forte correlação entre os dois conjuntos de dados verificando-se um nível de coerência satisfatório a partir do comprimento de onda de 11 km. Comparando-se este resultado com o nível de resolução do satélite Geosat largamente estudado por outros pesquisadores enfatiza-se que de fato a resolução dos valores médios (2 anos) do satélite Geosat aproxima-se da resolução dos levantamentos do Equant I e Equant II.
Resumo:
Neste trabalho, a decomposição em valores singulares (DVS) de uma matriz A, n x m, que representa a anomalia magnética, é vista como um método de filtragem bidimensional de coerência que separa informações correlacionáveis e não correlacionáveis contidas na matriz de dados magnéticos A. O filtro DVS é definido através da expansão da matriz A em autoimagens e valores singulares. Cada autoimagem é dada pelo produto escalar dos vetores de base, autovetores, associados aos problemas de autovalor e autovetor das matrizes de covariância ATA e AAT. Este método de filtragem se baseia no fato de que as autoimagens associadas a grandes valores singulares concentram a maior parte da informação correlacionável presente nos dados, enquanto que a parte não correlacionada, presumidamente constituída de ruídos causados por fontes magnéticas externas, ruídos introduzidos pelo processo de medida, estão concentrados nas autoimagens restantes. Utilizamos este método em diferentes exemplos de dados magnéticos sintéticos. Posteriormente, o método foi aplicado a dados do aerolevantamento feito pela PETROBRÁS no Projeto Carauari-Norte (Bacia do Solimões), para analisarmos a potencialidade deste na identificação, eliminação ou atenuação de ruídos e como um possível método de realçar feições particulares da anomalia geradas por fontes profundas e rasas. Este trabalho apresenta também a possibilidade de introduzir um deslocamento estático ou dinâmico nos perfis magnéticos, com a finalidade de aumentar a correlação (coerência) entre eles, permitindo assim concentrar o máximo possível do sinal correlacionável nas poucas primeiras autoimagens. Outro aspecto muito importante desta expansão da matriz de dados em autoimagens e valores singulares foi o de mostrar, sob o ponto de vista computacional, que a armazenagem dos dados contidos na matriz, que exige uma quantidade n x m de endereços de memória, pode ser diminuída consideravelmente utilizando p autoimagens. Assim o número de endereços de memória cai para p x (n + m + 1), sem alterar a anomalia, na reprodução praticamente perfeita. Dessa forma, concluímos que uma escolha apropriada do número e dos índices das autoimagens usadas na decomposição mostra potencialidade do método no processamento de dados magnéticos.
Resumo:
Marine Controlled Source Electromagnetic - mCSEM é um método geofísico eletromagnético que nos últimos dez anos vem sendo usado na prospecção de hidrocarbonetos com bastante êxito. Este método consiste em um dipolo elétrico horizontal (DEH) localizado um pouco acima do assoalho marinho, operando em baixa frequência (0,1-1,0 Hz) e receptores regularmente distribuídos no fundo do mar que captam os campos eletromagnéticos provenientes da difusão de energia gerada pelo dipolo transmissor. Neste trabalho vamos apresentar o problema direto do método mCSEM 3D, propondo soluções numéricas, através do método dos elementos finitos tridimensionais, para modelos geoelétricos mCSEM 3D. Para fins de análise de coerência, os resultados obtidos são comparados com soluções disponíveis na literatura. Em seguida, apresentaremos a inversão de um de seus modelos segundo uma proposta de metodologia de inversão juntamente com a proposta de solução direta para o mCSEM 3D, acima mencionada, realizando assim a inversão de um modelo geoelétrico do mCSEM 3D para duas frequências.
Resumo:
A simulação de uma seção sísmica de afastamento-nulo (ZO) a partir de dados de cobertura múltipla para um meio 2-D, através do empilhamento, é um método de imageamento de reflexão sísmica muito utilizado, que permite reduzir a quantidade de dados e melhorar a relação sinal/ruído. Segundo Berkovitch et al. (1999) o método Multifoco está baseado na Teoria do Imageamento Homeomórfico e consiste em empilhar dados de cobertura múltipla com distribuição fonte-receptor arbitrária de acordo com uma nova correção de sobretempo, chamada Multifoco. Esta correção de sobretempo esta baseada numa aproximação esférica local da frente de onda focalizante na vizinhança da superfície da terra. Este método permite construir uma seção sísmica no domínio do tempo de afastamento nulo aumentando a relação sinal/ruído. A técnica Multifoco não necessita do conhecimento a priori de um macro-modelo de velocidades. Três parâmetros são usados para descrever a aproximação de tempo de trânsito, Multifoco, os quais são: 1) o ângulo de emergência do raio de afastamento nulo ou raio de reflexão normal (β0), 2) a curvatura da frente de onda no Ponto de Incidência Normal (RNIP) e 3) curvatura da frente de Onda Normal (RN). Sendo também necessário a velocidade próximo a superfície da terra. Neste trabalho de tese aplico esta técnica de empilhamento Multifoco para dados de cobertura múltipla referidos a modelos de velocidade constante e modelo heterogêneos, com o objetivo de simular seções sísmicas afastamento-nulo. Neste caso, como se trata da solução de um problema direto, o macro-modelo de velocidades é considerado conhecido a priori. No contexto do problema inverso tem-se que os parâmetros RNIP, RN e β0 podem ser determinados a partir da análise de coerência aplicada aos dados sísmicos de múltipla cobertura. Na solução deste problema a função objetivo, a ser otimizada, é definida pelo cálculo da máxima coerência existente entre os dados na superfície de empilhamento sísmico. Neste trabalho de tese nos discutimos a sensibilidade da aproximação do tempo de trânsito usado no empilhamento Multifoco, como uma função dos parâmetros RNIP, RN e β0. Esta análise de sensibilidade é feita de três diferentes modos: 1) a primeira derivada da função objetivo, 2) a medida de coerência, denominada semelhança, e 3) a sensibilidade no Empilhamento Multifoco.
Resumo:
O método de empilhamento por Superfície de Reflexão Comum (SRC) produz seções simuladas de afastamento nulo (AN) por meio do somatório de eventos sísmicos dos dados de cobertura múltipla contidos nas superfícies de empilhamento. Este método não depende do modelo de velocidade do meio, apenas requer o conhecimento a priori da velocidade próxima a superfície. A simulação de seções AN por este método de empilhamento utiliza uma aproximação hiperbólica de segunda ordem do tempo de trânsito de raios paraxiais para definir a superfície de empilhamento ou operador de empilhamento SRC. Para meios 2D este operador depende de três atributos cinemáticos de duas ondas hipotéticas (ondas PIN e N), observados no ponto de emergência do raio central com incidência normal, que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0) , o raio de curvatura da onda ponto de incidência normal (RPIN) e o raio de curvatura da onda normal (RN). Portanto, o problema de otimização no método SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros (β0, RPIN, RN) ótimos associados a cada ponto de amostragem da seção AN a ser simulada. A determinação simultânea destes parâmetros pode ser realizada por meio de processos de busca global (ou otimização global) multidimensional, utilizando como função objetivo algum critério de coerência. O problema de otimização no método SRC é muito importante para o bom desempenho no que diz respeito a qualidade dos resultados e principalmente ao custo computacional, comparado com os métodos tradicionalmente utilizados na indústria sísmica. Existem várias estratégias de busca para determinar estes parâmetros baseados em buscas sistemáticas e usando algoritmos de otimização, podendo estimar apenas um parâmetro de cada vez, ou dois ou os três parâmetros simultaneamente. Levando em conta a estratégia de busca por meio da aplicação de otimização global, estes três parâmetros podem ser estimados através de dois procedimentos: no primeiro caso os três parâmetros podem ser estimados simultaneamente e no segundo caso inicialmente podem ser determinados simultaneamente dois parâmetros (β0, RPIN) e posteriormente o terceiro parâmetro (RN) usando os valores dos dois parâmetros já conhecidos. Neste trabalho apresenta-se a aplicação e comparação de quatro algoritmos de otimização global para encontrar os parâmetros SRC ótimos, estes são: Simulated Annealing (SA), Very Fast Simulated Annealing (VFSA), Differential Evolution (DE) e Controlled Rando Search - 2 (CRS2). Como resultados importantes são apresentados a aplicação de cada método de otimização e a comparação entre os métodos quanto a eficácia, eficiência e confiabilidade para determinar os melhores parâmetros SRC. Posteriormente, aplicando as estratégias de busca global para a determinação destes parâmetros, por meio do método de otimização VFSA que teve o melhor desempenho foi realizado o empilhamento SRC a partir dos dados Marmousi, isto é, foi realizado um empilhamento SRC usando dois parâmetros (β0, RPIN) estimados por busca global e outro empilhamento SRC usando os três parâmetros (β0, RPIN, RN) também estimados por busca global.
Resumo:
O presente estudo investiga as práticas avaliativas em inglês como Língua Estrangeira para Crianças (LEC) no primeiro ano do ensino fundamental das escolas públicas no município de Castanhal, PA. A pesquisa teve como objetivo analisar quais as orientações contidas nos documentos oficiais municipais no que diz respeito ao ensino e à avaliação em LEC, descrever as práticas avaliativas desenvolvidas pelos docentes nesse contexto, analisar a integração dessas práticas com os objetivos de ensino e aprendizagem de LEC e indicar pistas que possam, teórica e metodologicamente, tornar essas práticas mais eficazes. Para alcançar os objetivos propostos, foi realizada uma pesquisa qualitativa de caráter documental, na qual foram analisados os documentos oficiais que norteiam o ensino e a avaliação em LEC no município, 220 relatórios de desenvolvimento, que são o instrumento de avaliação preconizado para esse nível da escolaridade, além de entrevistas e questionários com 14 docentes que atuam nesse contexto. O referencial teórico sustenta-se nas contribuições de Cameron (2001), Strecht-Ribeiro (2005) e Scott e Ytreberg (1990) sobre o ensino-aprendizagem de LEC, bem como na discussão de alguns aspectos da avaliação da aprendizagem (HADJI, 1994; 2007; BONNIOL e VIAL, 2001; FERNANDES, 2009; PERRENOUD, 1999) e da avaliação da aprendizagem em LEC (MCKAY, 2006; IOANNOU-GEORGIOU, 2011; SHAABAN, 2001). Para a análise dos dados obtidos, foi utilizada a técnica de Análise de Conteúdo (ROSA, 2013). Os resultados da análise indicam uma ausência de coerência entre as práticas avaliativas e os objetivos e princípios do ensino de LEC. Os dados revelam ainda a falta de formação para ensinar, avaliar e elaborar programas de LEC, aliada a uma já conhecida tendência em se priorizar aspectos estruturais no ensino de línguas estrangeiras, em detrimento de atividades comunicativas. Por fim, este trabalho mostra a necessidade de promover outras pesquisas que investiguem as práticas avaliativas em LEC e, da urgência em se definir diretrizes oficiais nacionais para o ensino e avaliação que levem em consideração as características e necessidades das crianças nesse contexto.
Resumo:
A contínua incorporação de áreas florestais ao processo produtivo tem acarretado mudanças significativas na paisagem. Na Amazônia, com o avanço da fronteira agrícola, bem como a consolidação de atividades produtivas em determinadas áreas, essas transformações podem ser percebidas com maior evidência. Tal problemática também é observada nas Regiões de Integração - RI do Araguaia e Tapajós, Sudeste e Sudoeste do estado do Pará, respectivamente. Sendo assim, este trabalho tem como objetivo utilizar técnicas de mineração de dados e métricas de paisagem para identificar e analisar de forma automatizada os padrões de paisagens associados aos diferentes tipos de padrões de ocupação humana na Amazônia Legal, utilizando como recorte de análise, as Regiões de Integração do Araguaia e Tapajós no Estado do Pará, com dados de Uso e Cobertura da Terra do Projeto Terra Class para os anos de 2008 e 2010. Abordando, também, metodologias que visam identificar possíveis trajetórias de “evolução” da paisagem, no intuito de delinear recomendações visando uma melhor utilização da terra e dos recursos naturais disponíveis e, na tomada de decisão para a gestão territorial e implementação de políticas públicas. Portanto, verificou-se que a RI do Tapajós apresenta forte dinâmica de uso e cobertura da terra entre os anos de 2008 e 2010, principalmente no que tange as classes de uso da terra. No entanto, tanto para o ano de 2008 quanto para o ano de 2010 pode-se verificar que a Região ainda possui significativa parcela de áreas com cobertura vegetal. Já para a RI do Araguaia a dinâmica de uso e cobertura da terra ocorre de forma diferenciada, com significativa alteração entre as classes durante os anos analisados. No entanto, para a RI do Araguaia assim como para a RI do Tapajós a maior intensidade da dinâmica de uso ocorre entre as classes de pastagem, sendo que para a RI do Araguaia houve relativa perda das áreas com pastagem manejada (pasto limpo) para áreas de pasto com a presença de invasoras (pasto sujo) ou em fase de regeneração. O processo de mapeamento automatizado de Tipologias de Paisagem utilizando o Plugin GeoDMA do Terra View demonstrou-se eficaz e preciso, visto que os resultados alcançados apresentam coerência com a realidade de cada Região de Integração analisada.
Resumo:
O reconhecimento da intenção do condutor a partir de sinais de eletroencefalografia (EEG) pode ser útil no desenvolvimento de interfaces cérebro computador (BCI) para serem usadas em sinergia com veículos inteligentes. Isso pode ser benéfico para melhorar a qualidade de interação entre o motorista e o carro, por exemplo, fornecendo uma resposta do carro inteligente alinhada com a intenção do motorista. Neste estudo, considera-se a antecipação como sendo o estado cognitivo que leva a ações especificas durante a condução de um automóvel. Portanto, propomos investigar a presença de padrões antecipatórios em sinais EEG durante a condução de veículos para determinar duas ações especifícas (1) virar à esquerda e (2) virar à direita, alguns milissegundos antes que tais ações aconteçam. Um protocolo experimental foi proposto para gravar sinais EEG de 5 indivíduos enquanto eles operam um simulador de realidade virtual não invasiva - que foi projetado para tal experimento - que simula a condução de um carro virtual. O protocolo experimental é uma variante do paradigma da variação negativa contingente (CNV) com condições Go e No-go no sistema de condução de realidade virtual. Os resultados apresentados neste estudo indicam a presença de padrões antecipatórios em potenciais corticais lentos observados no domínio do tempo (medias dos sinais EEG) e da frequência (Power Spectra e coerência de fase). Isso abre um leque de possibilidades no desenvolvimento de sistemas BCI - baseados em sinais antecipatórios - que conectem o motorista ao veiculo inteligente favorecendo uma tomada de decisão que analise as intenções dos condutores podendo eventualmente evitar acidentes durante a condução.
Resumo:
Este trabalho analisou 10 anos de distribuição espacial e temporal dos raios, dos sistemas precipitantes e suas características, como refletividade, temperatura de brilho e altura dos sistemas precipitantes amostrados pelo satélite Tropical Rainfall Measuring Mission (TRMM) através dos sensores Lightning Imaging Sensor (LIS), Precipitation Radar (PR) e TRMM Microwave Imager (TMI). Estes dados foram organizados e armazenados pelo grupo de pesquisa da convecção tropical da University of Utah no período de dezembro de 1997 a fevereiro de 2009. Também foram analisados dados de focos de queimadas detectadas pelo Instituto Nacional de Pesquisas Espaciais (INPE), no período de 1998 a 2008. Foi selecionada uma área delimitada entre 60ºW a 45ºW de longitude e 10ºS a 5ºN de latitude, a qual, posteriormente, foi dividida em nove sub-áreas para um melhor detalhamento dasinformações. Para verificar a possível influência das queimadas no número de raios, selecionaram-se oito áreas, sendo 4 com o maior número de focos de queimadas e 4 com o menor número de focos de queimadas. Os sistemas precipitantes foram classificados seguindo a metodologia de Nesbitt et. al. 2000 e obedecendo a nova definição dos dados realizado por Liu (2007). Os sistemas precipitantes amostrados pelo satélite TRMM utilizados neste trabalho são denominados ALLPFS e são definidos como aqueles que apresentam pixel de chuva estimado pelo algoritmo 2A25. Estes são classificados em PFS e OTHPFS, que respectivamente, são aqueles que apresentam e não apresentam informação de temperatura de brilho. Os PFS são sub-classificados em sistemas sem assinatura de gelo (NOICE), com assinatura de gelo (WICE) e sistemas convectivos de mesoescala (MCS), sendo que os sistemas mais intensos, dentre estes últimos, são sistemas que recebem a denominação de IMCS. Os resultados mostram que as regiões do sul do Estado do Pará, município de Belém e Ilha do Marajó foram as que apresentaram as maiores ocorrências de raios na Amazônia Oriental, com valores superiores a 20 a 35 raios/km²/ano. Os NOICEs foram os sistemas mais frequentes em todas as regiões e os sistemas precipitantes da categoria WICE e MCS são aqueles que mais contribuem com a produção de raios sobre essas regiões. Os sistemas eletrificados apresentam grande contribuição no volume de chuva estimada sobre as áreas CENTRO e SUL, com percentuais superiores a 50% nas áreas SUL. A variação mensal dos raios na área de estudo mostrou que as maiores ocorrências de raios sobre o município de Belém são nos meses de janeiro a junho, com um pico no mês de janeiro. As maiores ocorrências no setor SUL da Amazônia Oriental concentram-se nos meses de setembro a dezembro. Nas análises sobre a interação entre os raios e as queimadas não se observou coerência, dentro das áreas de maior número de queimadas, na correlação mensal entre os raios e as queimadas, evidenciando que, apesar do grande número de queimadas observado sobre essas áreas, outros fatores interferem na produção de raios.