5 resultados para GNSS, Ambiguity resolution, Regularization, Ill-posed problem, Success probability

em Universidade Federal do Pará


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta pesquisa dedicou-se a investigar a resolução de problemas aditivos nas séries iniciais e, em especial, se a concepção dos professores sobre a complexidade de um problema aditivo é determinante no rendimento dos alunos. Para alcançar esse objetivo foi desenvolvida uma pesquisa exploratória sobre as estratégias de resolução de problemas com alunos dos municípios de Belém, Capanema e Bragança, em 08 turmas de 4ª série, sendo sete delas de escolas públicas e uma de iniciativa privada, totalizando 205 alunos participantes da pesquisa. Com base nos estudos de Huete e Bravo (2006) aplicou-se, através de um questionário, 17 problemas aditivos aos alunos e, de acordo com seus rendimentos, os problemas foram divididos em problemas de baixa, média ou alta complexidade. Investigou-se também a avaliação dos professores quanto aos problemas aplicados aos alunos. Os resultados indicam que quanto maior é a complexidade de um problema para os alunos, mais dificuldade os professores têm de prever essa complexidade, especialmente porque algumas variáveis se fazem presentes na constituição de um problema complexo. Concluiu-se que é necessário dar maior atenção à formação docente, uma vez que o sucesso nas previsões de um problema aditivo está relacionado aos professores com maior formação acadêmica e aos professores com formação específica em matemática, além do que se faz urgente que se realize atividades voltadas à linguagem matemática nas salas de aulas, pois se percebeu pelos resultados dos alunos, uma real dificuldade nesse segmento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

ABSTRACT: In this work we are concerned with the existence and uniqueness of T -periodic weak solutions for an initial-boundary value problem associated with nonlinear telegraph equations typein a domain. Our arguments rely on elliptic regularization technics, tools from classical functional analysis as well as basic results from theory of monotone operators.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

ABSTRACT: We present here a methodology for the rapid interpretation of aeromagnetic data in three dimensions. An estimation of the x, y and z coordinates of prismatic elements is obtained through the application of "Euler's Homogeneous equation" to the data. In this application, it is necessary to have only the total magnetic field and its derivatives. These components can be measured or calculated from the total field data. In the use of Euler's Homogeneous equation, the structural index, the coordinates of the corners of the prism and the depth to the top of the prism are unknown vectors. Inversion of the data by classical least-squares methods renders the problem ill-conditioned. However, the inverse problem can be stabilized by the introduction of both a priori information within the parameter vector together with a weighting matrix. The algorithm was tested with synthetic and real data in a low magnetic latitude region and the results were satisfactory. The applicability of the theorem and its ambiguity caused by the lack of information about the direction of total magnetization, inherent in all automatic methods, is also discussed. As an application, an area within the Solimões basin was chosen to test the method. Since 1977, the Solimões basin has become a center of exploration activity, motivated by the first discovery of gas bearing sandstones within the Monte Alegre formation. Since then, seismic investigations and drilling have been carried on in the region. A knowledge of basement structures is of great importance in the location of oil traps and understanding the tectonic history of this region. Through the application of this method a preliminary estimate of the areal distribution and depth of interbasement and sedimentary magnetic sources was obtained.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente Dissertação de Mestrado tem como objetivo o estudo do problema de inversão sísmica baseada em refletores planos para arranjo fonte-comum (FC) e ponto-médiocomum (PMC). O modelo direto é descrito por camadas homogêneas, isotrópicas com interfaces plano-horizontais. O problema é relacionado ao empilhamento NMO baseado na otimização da função semblance, para seções PMC corrigidas de sobretempo normal (NMO). O estudo foi baseado em dois princípios. O primeiro princípio adotado foi de combinar dois grupos de métodos de inversão: um Método Global e um Método Local. O segundo princípio adotado foi o de cascata, segundo a teoria Wichert-Herglotz-Bateman, que estabelece que para conhecer uma camada inferior tem-se que conhecer primeiro a camada superior (dissecação). A aplicação do estudo é voltada à simulação sísmica de Bacia Sedimentar do Solimões e de Bacia Marinha para se obter uma distribuição local 1D de velocidades e espessuras para a subsuperfície em horizontes alvo. Sendo assim, limitamos a inversão entre 4 e 11 refletores, uma vez que na prática a indústria limita uma interpretação realizada apenas em número equivalente de 3 a 4 refletores principais. Ressalta-se que este modelo é aplicável como condição inicial ao imageamento de seções sísmicas em regiões geologicamente complexas com variação horizontal suave de velocidades. Os dados sintéticos foram gerados a partir dos modelos relacionados a informações geológicas, o que corresponde a uma forte informação a priori no modelo de inversão. Para a construção dos modelos relacionados aos projetos da Rede Risco Exploratório (FINEP) e de formação de recursos humanos da ANP em andamento, analisamos os seguintes assuntos relevantes: (1) Geologia de bacias sedimentares terrestre dos Solimões e ma rinha (estratigráfica, estrutural, tectônica e petrolífera); (2) Física da resolução vertical e horizontal; e (3) Discretização temporal-espacial no cubo de multi-cobertura. O processo de inversão é dependente do efeito da discretização tempo-espacial do campo de ondas, dos parâmetros físicos do levantamento sísmico, e da posterior reamostragem no cubo de cobertura múltipla. O modelo direto empregado corresponde ao caso do operador do empilhamento NMO (1D), considerando uma topografia de observação plana. O critério básico tomado como referência para a inversão e o ajuste de curvas é a norma 2 (quadrática). A inversão usando o presente modelo simples é computacionalmente atrativa por ser rápida, e conveniente por permitir que vários outros recursos possam ser incluídos com interpretação física lógica; por exemplo, a Zona de Fresnel Projetada (ZFP), cálculo direto da divergência esférica, inversão Dix, inversão linear por reparametrização, informações a priori, regularização. A ZFP mostra ser um conceito út il para estabelecer a abertura da janela espacial da inversão na seção tempo-distância, e representa a influência dos dados na resolução horizontal. A estimativa da ZFP indica uma abertura mínima com base num modelo adotado, e atualizável. A divergência esférica é uma função suave, e tem base física para ser usada na definição da matriz ponderação dos dados em métodos de inversão tomográfica. A necessidade de robustez na inversão pode ser analisada em seções sísmicas (FC, PMC) submetida a filtragens (freqüências de cantos: 5;15;75;85; banda-passante trapezoidal), onde se pode identificar, comparar e interpretar as informações contidas. A partir das seções, concluímos que os dados são contaminados com pontos isolados, o que propõe métodos na classe dos considerados robustos, tendo-se como referência a norma 2 (quadrados- mínimos) de ajuste de curvas. Os algoritmos foram desenvolvidos na linguagem de programação FORTRAN 90/95, usando o programa MATLAB para apresentação de resultados, e o sistema CWP/SU para modelagem sísmica sintética, marcação de eventos e apresentação de resultados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A ambiguidade na inversão de dados de geofísica de poço é estudada através da análise fatorial Q-modal. Este método é baseado na análise de um número finito de soluções aceitáveis, que são ordenadas, no espaço de soluções, segundo a direção de maior ambiguidade. A análise da variação dos parâmetros ao longo dessas soluções ordenadas permite caracterizar aqueles que são mais influentes na ambiguidade. Como a análise Q-modal é baseada na determinação de uma região de ambiguidade, obtida de modo empírico a partir de um número finito de soluções aceitáveis, é possível analisar a ambiguidade devida não só a erros nas observações, como também a pequenos erros no modelo interpretativo. Além disso, a análise pode ser aplicada mesmo quando os modelos interpretativos ou a relação entre os parâmetros não são lineares. A análise fatorial é feita utilizando-se dados sintéticos, e então comparada com a análise por decomposição em valores singulares, mostrando-se mais eficaz, uma vez que requer premissas menos restritivas, permitindo, desse modo, caracterizar a ambiguidade de modo mais realístico. A partir da determinação dos parâmetros com maior influência na ambiguidade do modelo é possível reparametrizá-lo, agrupando-os em um único parâmetro, redefinindo assim o modelo interpretativo. Apesar desta reparametrização incorrer na perda de resolução dos parâmetros agrupados, o novo modelo tem sua ambiguidade bastante reduzida.