22 resultados para Resolução em massa
em Universidade Federal do Pará
Resumo:
A psicologia da aprendizagem foi marcada pelo debate sobre se a aprendizagem seria um processo gradual ou súbito. Enquanto os associacionistas defendiam a primeira proposta, os gestaltistas afirmavam a existência de situações de aprendizagem abruptas. Dentre os principais autores a defenderem esta possibilidade estava Wolfgang Köhler. Os trabalhos deste autor têm sido apontados como evidência de que a aprendizagem seria um processo súbito. Apesar da relevância destes trabalhos em demonstrar a existência de situações em que uma forma súbita de aprendizagem ocorra, muito se tem questionado sobre as conclusões apresentadas por ele para o porquê da ocorrência deste tipo de fenômeno comportamental. Dentre as muitas críticas feitas, a que tem recebido mais atenção refere-se à ausência de controle da história dos seus sujeitos experimentais, bem como à desconsideração do papel que esta história teria nos resultados encontrados. Estudos que investigaram este papel (Epstein et al., 1984 e Epstein & Medalie 1983, 1985) demonstraram que a resposta típica de insight podia ser o resultado da junção de repertórios aprendidos previamente. Os trabalhos de Epstein foram importantes em demonstrar que o insight seria uma junção de repertórios que se combinam em situações apropriadas pelo possível envolvimento de um processo conhecido como Generalização Funcional. O presente trabalho se propôs a investigar se a Generalização Funcional era realmente responsável pela interconexão dos repertórios que culminariam na resolução da tarefa de um modo considerado como súbito. Para tal foi feita uma replicação dos experimentos de Epstein, utilizando-se ratos como sujeitos. Os resultados mostraram que a Generalização Funcional parece ser um requisito necessário, mas não suficiente para a resolução súbita de problemas, de um modo considerado como insight".
Resumo:
Descreve uma prática de sala de aula envolvendo crianças de 3 e 4 série do ensino fundamental de uma escola particular e analisa o desempenho dessas crianças no processo de resolução de problemas de Matemática. Inicio descrevendo minha experiência profissional ensinando matemática e tomo como referência as questões e inquietações resultantes dessa prática. Para compreender tipos de problema e processos de resolução tomo como referencial teórico Polya, Pozo, Saviani e Dante. No sentido de compreender a matemática presente no ensino fundamental e sua relação com a realidade, busco referências em Kamii, Machado e D'ambrósio. Para análise dos processos desenvolvidos pelas crianças me apoio principalmente em Vergnaud e Bachelard e, para compreender a minha prática os referenciais teóricos foram buscados predominantemente em Freire. Considerei, para análise, situações problemas extraídas da realidade. Analisando os processos desenvolvidos pelas crianças percebi obstáculos à aprendizagem ocasionados, principalmente, pela forma a partir da qual os problemas são apresentados, identifiquei conceitos não completamente formados, a utilização de processos criados pelas próprias crianças, dificuldades de matematização das situações, assim como dificuldades de identificação e tratamento de dados, implícitos ou explícitos. A análise me possibilitou refletir sobre minha prática e sobre outras práticas comuns de professore(a)s.
Resumo:
Desenvolvemos a quantização do campo vetorial não massivo no espaço-tempo de Schwarzschild, e calculamos a potência irradiada por uma carga elétrica em órbita circular em torno de um objeto com massa M em ambos os espaços-tempos. Em Minkowski é encontrada a expressão analítica da potência irradiada utilizando teoria quântica de campos e assumindo gravitação newtoniana. O resultado obtido é equivalente ao resultado clássico, dado que o cálculo é realizado em nível de árvore. Dadas as dificuldades matemáticas encontradas ao se tentar obter soluções expressas em termos de funções especiais conhecidas, em Schwarzschild o problema é abordado de duas formas: solução analítica no limite de baixas freqüências, e resolução numérica. O primeiro caso serviu como cheque de consistência para o método numérico. Em Schwarzschild, o cálculo também é realizado utilizando teoria quântica de campos em nível de árvore, e a expressão da potência é encontrada analiticamente na aproximação de baixas freqüências e através de métodos numérico. Após a comparação dos resultados, concluímos que, para uma mesma velocidade angular de rotação da carga (medida por observadores estatísticos assintóticos), a potência irradiada em Minkowski é maior que a potência irradiada em Schwarzschild.
Resumo:
O modelo OLAM foi desenvolvido com objetivo de estender a capacidade de representar os fenômenos de escala global e regional simultaneamente. Este modelo apresenta inovações quanto aos processos dinâmicos, configuração de grade, estrutura de memória e técnicas de solução numérica das equações prognósticas. As equações de Navier-Stokes são resolvidas através da técnica de volumes finitos que conservam massa, momento e energia. No presente trabalho, apresenta-se uma descrição sucinta do OLAM e alguns resultados de sua aplicação em simulações climáticas da precipitação mensal para a região norte da América do Sul, bem como em rodadas para previsão numérica de tempo regional. Os resultados mostram que o modelo consegue representar bem os aspectos meteorológicos de grande escala. Em geral, seu desempenho melhora quando são adotadas grades de maior resolução espacial, nas quais se verificam melhorias significativas tanto na estimativa da precipitação mensal regional, quanto na previsão numérica de tempo.
Resumo:
Esta pesquisa tem como objetivo compreender os dizeres e as produções escritas no processo de interpretação das regras matemáticas pelos alunos na resolução de problemas individuais e em díades. Valorizando o diálogo, como fonte de proporcionar a comunicação entre os alunos e o texto. A comunicação exerce um importante papel na construção do conhecimento matemático, pois é por meio do jogo de linguagem, - teoria fundamentada por Ludwig Wittgenstein - que os sentidos são atribuídos pelos alunos. Nesta direção, as regras matemáticas evidenciam diferentes formas de vida no seu uso, associadas às diferentes experiências vivenciadas pelo aluno na leitura e na escrita. A comunicação surge, para que os alunos estabeleçam os direcionamentos nas atividades de leitura e escrita nos problemas matemáticos, como também na aplicação da regra matemática. Nesta pesquisa participaram 8 alunos de 5ª série de uma escola pública de Belém, onde executaram, individualmente e em díades, tarefas de resolução de problemas de divisão de números naturais. As respostas, dada pelos alunos nos encontros individuais e em díades, foram filmadas, e posteriormente analisadas. Com base na análise dos dados, observei: (a) a lógica do aluno nem sempre está em conformidade com a regra matemática; (b) a importância da leitura do enunciado do problema é destacada, pois os alunos se projetam nas possibilidades de interpretação das regras matemáticas, e podem re-significar suas ações; (c) a importância da comunicação na interpretação da regra matemática, mediante a negociação de significados, podendo ainda, esclarecer por meio da fala, as ações dos alunos de como as regras estão sendo aplicadas. Neste sentido, a comunicação tem sido princípio básico para se evitar mal-entendidos no processo de construção de conceitos matemáticos, como também estabelece condições favoráveis para a produção textual.
Resumo:
A presente dissertação é o resultado de uma investigação qualitativa que tem como objeto de estudo analisar a interpretação de textos matemáticos e as dificuldades na resolução de problemas de Geometria Plana, a partir de registros produzidos pelos sujeitos pesquisados pertencentes a duas turmas do Curso Técnico Integrado ao Ensino Médio na modalidade de Jovens e Adultos do Instituto Federal de Roraima do ano de 2008; uma turma de Enfermagem e outra de Laboratório. Esta análise foi realizada à luz de teóricos como: Gilles-Gaston Granger e Ludwig Wittgenstein, os quais me fizeram perceber que as "dificuldades" encontradas na aprendizagem da Geometria Plana, segundo os preceitos dos PCNs e observadas nos registros analisados, se dão por meio da complexidade das linguagens apresentadas em sala de aula, tais como: a linguagem natural e a linguagem matemática. Os sujeitos pesquisados apontam "dificuldades" na aprendizagem, quando se deparam com a necessidade de traduzir da linguagem natural para a linguagem matemática, a fim de objetivar por meio da escrita as soluções dos problemas propostos. Essas "dificuldades" podem levá-las ao desestímulo pelo estudo, à desistência e/ou a evasão escolar. Por estes motivos, pretendo com esta pesquisa, encontrar subsídios que possam apontar caminhos para minimizar esta problemática, incentivando-os ao estudo por meio da pesquisa, da leitura diária, de modo que, consigam aprender os conteúdos matemáticos com mais vontade e prazer.
Resumo:
Esta pesquisa dedicou-se a investigar a resolução de problemas aditivos nas séries iniciais e, em especial, se a concepção dos professores sobre a complexidade de um problema aditivo é determinante no rendimento dos alunos. Para alcançar esse objetivo foi desenvolvida uma pesquisa exploratória sobre as estratégias de resolução de problemas com alunos dos municípios de Belém, Capanema e Bragança, em 08 turmas de 4ª série, sendo sete delas de escolas públicas e uma de iniciativa privada, totalizando 205 alunos participantes da pesquisa. Com base nos estudos de Huete e Bravo (2006) aplicou-se, através de um questionário, 17 problemas aditivos aos alunos e, de acordo com seus rendimentos, os problemas foram divididos em problemas de baixa, média ou alta complexidade. Investigou-se também a avaliação dos professores quanto aos problemas aplicados aos alunos. Os resultados indicam que quanto maior é a complexidade de um problema para os alunos, mais dificuldade os professores têm de prever essa complexidade, especialmente porque algumas variáveis se fazem presentes na constituição de um problema complexo. Concluiu-se que é necessário dar maior atenção à formação docente, uma vez que o sucesso nas previsões de um problema aditivo está relacionado aos professores com maior formação acadêmica e aos professores com formação específica em matemática, além do que se faz urgente que se realize atividades voltadas à linguagem matemática nas salas de aulas, pois se percebeu pelos resultados dos alunos, uma real dificuldade nesse segmento.
Resumo:
RESUMO: OBJETIVO: Investigar fatores sociodemográficos, de risco ou de proteção para doenças crônicas não transmissíveis (DCNT) que se associem ao aumento do índice de massa corporal (IMC) após os 20 anos de idade. MÉTODOS: Estudo transversal com 769 mulheres e 572 homens do Sistema Municipal de Monitoramento de Fatores de Risco para DCNT, 2005, Florianópolis, SC. O aumento do IMC foi definido em percentagem, pela diferença entre o IMC em 2005 e aos 20 anos. RESULTADOS: Desde os 20 anos, o aumento do IMC foi superior a 10% para a maioria dos indivíduos. Nas análises múltiplas, o aumento do IMC foi associado a aumento da idade, baixo nível educacional (mulheres), ser casado (homens), não trabalhar, baixo nível de percepção de saúde, pressão alta, colesterol/triglicerídeos elevados (homens), realização de dieta, sedentarismo e ex-tabagismo (mulheres). CONCLUSÕES: Estratégias de saúde para prevenir o ganho de peso em nível populacional devem considerar principalmente os fatores sociodemográficos.
Resumo:
A extração com fluido supercrítico de materiais líquidos e sólidos despertou o interesse para aplicações industriais nas últimas décadas, mais particularmente sob o conceito de química verde e biorrefinarias, portanto é fundamental que se faça uma modelagem desse processo a fim de otimizar as condições operacionais e simular o processo. O objetivo geral deste trabalho consiste na determinação de parâmetros de transferência de massa do processo de extração supercrítica de matriz sólida, empregando o dióxido de carbono como solvente, a partir de dados cinéticos de extração e na avaliação sistemática de cinco modelos matemáticos para descrever as cinéticas de extração dos óleos da polpa e da casca do buriti, do óleo de açaí de da oleoresina de cúrcuma, medidas no Laboratório de Extração Supercrítica, da Faculdade de Engenharia Química (UFPA), a fim de contribuir para o estudo de ampliação de escala e análise de custo de produção. Foram avaliados os modelos de Tan e Liou, Goto et al. (1993), Martinez et al. (2003), Esquível et al. (1999), e Sovová (1994). A modelagem das cinéticas de extração foi realizada utilizando aplicativos computacionais desenvolvidos e validados neste trabalho a partir de diferentes dados experimentais publicados na literatura. Diante de 40 cinéticas medidas com diferentes equipamentos de extração, configurações de leito, tipos de matérias primas, preparo dos materiais, pressão e temperatura e outros parâmetros de processo (com destaque ao rendimento global e a vazão de solvente), foi construído um panorama dos resultados acerca da capacidade dos modelos de transferência de massa em descrever as mais diferentes curvas globais de extração. De forma geral, os modelos de Goto et al. (1993) e Sovová (1994) apresentaram as melhores previsões aos dados experimentais das matérias primas tratadas neste trabalho com menores valores de quadrado, erros relativo, faixa de erro e desvios padrão e valores de R2 próximos da unidade.
Resumo:
Apresentamos três novos métodos estáveis de inversão gravimétrica para estimar o relevo de uma interface arbitrária separando dois meios. Para a garantia da estabilidade da solução, introduzimos informações a priori sobre a interface a ser mapeada, através da minimização de um (ou mais) funcional estabilizante. Portanto, estes três métodos se diferenciam pelos tipos de informação físico-geológica incorporados. No primeiro método, denominado suavidade global, as profundidades da interface são estimadas em pontos discretos, presumindo-se o conhecimento a priori sobre o contraste de densidade entre os meios. Para a estabilização do problema inverso introduzimos dois vínculos: (a) proximidade entre as profundidades estimadas e verdadeiras da interface em alguns pontos fornecidas por furos de sondagem; e (b) proximidade entre as profundidades estimadas em pontos adjacentes. A combinação destes dois vínculos impõe uma suavidade uniforme a toda interface estimada, minimizando, simultaneamente em alguns pontos, os desajustes entre as profundidades conhecidas pelas sondagens e as estimadas nos mesmos pontos. O segundo método, denominado suavidade ponderada, estima as profundidades da interface em pontos discretos, admitindo o conhecimento a priori do contraste de densidade. Neste método, incorpora-se a informação geológica que a interface é suave, exceto em regiões de descontinuidades produzidas por falhas, ou seja, a interface é predominantemente suave porém localmente descontínua. Para a incorporação desta informação, desenvolvemos um processo iterativo em que três tipos de vínculos são impostos aos parâmetros: (a) ponderação da proximidade entre as profundidades estimadas em pontos adjacentes; (b) limites inferior e superior para as profundidades; e (c) proximidade entre todas as profundidades estimadas e um valor numérico conhecido. Inicializando com a solução estimada pelo método da suavidade global, este segundo método, iterativamente, acentua as feições geométricas presentes na solução inicial; ou seja, regiões suaves da interface tendem a tornar-se mais suaves e regiões abruptas tendem a tornar-se mais abruptas. Para tanto, este método atribui diferentes pesos ao vínculo de proximidade entre as profundidades adjacentes. Estes pesos são automaticamente atualizados de modo a acentuar as descontinuidades sutilmente detectadas pela solução da suavidade global. Os vínculos (b) e (c) são usados para compensar a perda da estabilidade, devida à introdução de pesos próximos a zero em alguns dos vínculos de proximidade entre parâmetros adjacentes, e incorporar a informação a priori que a região mais profunda da interface apresenta-se plana e horizontal. O vínculo (b) impõe, de modo estrito, que qualquer profundidade estimada é não negativa e menor que o valor de máxima profundidade da interface conhecido a priori; o vínculo (c) impõe que todas as profundidades estimadas são próximas a um valor que deliberadamente viola a profundidade máxima da interface. O compromisso entre os vínculos conflitantes (b) e (c) resulta na tendenciosidade da solução final em acentuar descontinuidades verticais e apresentar uma estimativa suave e achatada da região mais profunda. O terceiro método, denominado mínimo momento de inércia, estima os contrastes de densidade de uma região da subsuperfície discretizada em volumes elementares prismáticos. Este método incorpora a informação geológica que a interface a ser mapeada delimita uma fonte anômala que apresenta dimensões horizontais maiores que sua maior dimensão vertical, com bordas mergulhando verticalmente ou em direção ao centro de massa e que toda a massa (ou deficiência de massa) anômala está concentrada, de modo compacto, em torno de um nível de referência. Conceitualmente, estas informações são introduzidas pela minimização do momento de inércia das fontes em relação ao nível de referência conhecido a priori. Esta minimização é efetuada em um subespaço de parâmetros consistindo de fontes compactas e apresentando bordas mergulhando verticalmente ou em direção ao centro de massa. Efetivamente, estas informações são introduzidas através de um processo iterativo inicializando com uma solução cujo momento de inércia é próximo a zero, acrescentando, em cada iteração, uma contribuição com mínimo momento de inércia em relação ao nível de referência, de modo que a nova estimativa obedeça a limites mínimo e máximo do contraste de densidade, e minimize, simultaneamente, os desajustes entre os dados gravimétricos observados e ajustados. Adicionalmente, o processo iterativo tende a "congelar" as estimativas em um dos limites (mínimo ou máximo). O resultado final é uma fonte anômala compactada em torno do nível de referência cuja distribuição de constraste de densidade tende ao limite superior (em valor absoluto) estabelecido a priori. Estes três métodos foram aplicados a dados sintéticos e reais produzidos pelo relevo do embasamento de bacias sedimentares. A suavidade global produziu uma boa reconstrução do arcabouço de bacias que violam a condição de suavidade, tanto em dados sintéticos como em dados da Bacia do Recôncavo. Este método, apresenta a menor resolução quando comparado com os outros dois métodos. A suavidade ponderada produziu uma melhoria na resolução de relevos de embasamentos que apresentam falhamentos com grandes rejeitos e altos ângulos de mergulho, indicando uma grande potencialidade na interpretação do arcabouço de bacias extensionais, como mostramos em testes com dados sintéticos e dados do Steptoe Valley, Nevada, EUA, e da Bacia do Recôncavo. No método do mínimo momento de inércia, tomou-se como nível de referência o nível médio do terreno. As aplicações a dados sintéticos e às anomalias Bouguer do Graben de San Jacinto, California, EUA, e da Bacia do Recôncavo mostraram que, em comparação com os métodos da suavidade global e ponderada, este método estima com excelente resolução falhamentos com pequenos rejeitos sem impor a restrição da interface apresentar poucas descontinuidades locais, como no método da suavidade ponderada.
Resumo:
Apresentamos dois métodos de interpretação de dados de campos potenciais, aplicados à prospecção de hidrocarbonetos. O primeiro emprega dados aeromagnéticos para estimar o limite, no plano horizontal, entre a crosta continental e a crosta oceânica. Este método baseia-se na existência de feições geológicas magnéticas exclusivas da crosta continental, de modo que as estimativas das extremidades destas feições são usadas como estimativas dos limites da crosta continental. Para tanto, o sinal da anomalia aeromagnética na região da plataforma, do talude e da elevação continental é amplificado através do operador de continuação analítica para baixo usando duas implementações: o princípio da camada equivalente e a condição de fronteira de Dirichlet. A maior carga computacional no cálculo do campo continuado para baixo reside na resolução de um sistema de equações lineares de grande porte. Este esforço computacional é minimizado através do processamento por janelas e do emprego do método do gradiente conjugado na resolução do sistema de equações. Como a operação de continuação para baixo é instável, estabilizamos a solução através do funcional estabilizador de primeira ordem de Tikhonov. Testes em dados aeromagnéticos sintéticos contaminados com ruído pseudo-aleatório Gaussiano mostraram a eficiência de ambas as implementações para realçar os finais das feições magnéticas exclusivas da crosta continental, permitindo o delineamento do limite desta com a crosta oceânica. Aplicamos a metodologia em suas duas implementações a dados aeromagnéticos reais de duas regiões da costa brasileira: Foz do Amazonas e Bacia do Jequitinhonha. O segundo método delineia, simultaneamente, a topografia do embasamento de uma bacia sedimentar e a geometria de estruturas salinas contidas no pacote sedimentar. Os modelos interpretativos consistem de um conjunto de prismas bidimensionais verticais justapostos, para o pacote sedimentar e de prismas bidimensionais com seções verticais poligonais para as estruturas salinas. Estabilizamos a solução, incorporando características geométricas do relevo do embasamento e das estruturas salinas compatíveis com o ambiente geológico através dos estabilizadores da suavidade global, suavidade ponderada e da concentração de massa ao longo de direções preferenciais, além de vínculos de desigualdade nos parâmetros. Aplicamos o método a dados gravimétricos sintéticos produzidos por fontes 2D simulando bacias sedimentares intracratônicas e marginais apresentando densidade do pacote sedimentar variando com a profundidade segundo uma lei hiperbólica e abrigando domos e almofadas salinas. Os resultados mostraram que o método apresenta potencial para delinear, simultaneamente, as geometrias tanto de almofadas e domos salinos, como de relevos descontínuos do embasamento. Aplicamos o método, também, a dados reais ao longo de dois perfis gravimétricos sobre as Bacias de Campos e do Jequitinhonha e obtivemos interpretações compatíveis com a geologia da área.
Resumo:
A identificação e descrição dos caracteres litológicos de uma formação são indispensáveis à avaliação de formações complexas. Com este objetivo, tem sido sistematicamente usada a combinação de ferramentas nucleares em poços não-revestidos. Os perfis resultantes podem ser considerados como a interação entre duas fases distintas: • Fase de transporte da radiação desde a fonte até um ou mais detectores, através da formação. • Fase de detecção, que consiste na coleção da radiação, sua transformação em pulsos de corrente e, finalmente, na distribuição espectral destes pulsos. Visto que a presença do detector não afeta fortemente o resultado do transporte da radiação, cada fase pode ser simulada independentemente uma da outra, o que permite introduzir um novo tipo de modelamento que desacopla as duas fases. Neste trabalho, a resposta final é simulada combinando soluções numéricas do transporte com uma biblioteca de funções resposta do detector, para diferentes energias incidentes e para cada arranjo específico de fontes e detectores. O transporte da radiação é calculado através do algoritmo de elementos finitos (FEM), na forma de fluxo escalar 2½-D, proveniente da solução numérica da aproximação de difusão para multigrupos da equação de transporte de Boltzmann, no espaço de fase, dita aproximação P1, onde a variável direção é expandida em termos dos polinômios ortogonais de Legendre. Isto determina a redução da dimensionalidade do problema, tornando-o mais compatível com o algoritmo FEM, onde o fluxo dependa exclusivamente da variável espacial e das propriedades físicas da formação. A função resposta do detector NaI(Tl) é obtida independentemente pelo método Monte Carlo (MC) em que a reconstrução da vida de uma partícula dentro do cristal cintilador é feita simulando, interação por interação, a posição, direção e energia das diferentes partículas, com a ajuda de números aleatórios aos quais estão associados leis de probabilidades adequadas. Os possíveis tipos de interação (Rayleigh, Efeito fotoelétrico, Compton e Produção de pares) são determinados similarmente. Completa-se a simulação quando as funções resposta do detector são convolvidas com o fluxo escalar, produzindo como resposta final, o espectro de altura de pulso do sistema modelado. Neste espectro serão selecionados conjuntos de canais denominados janelas de detecção. As taxas de contagens em cada janela apresentam dependências diferenciadas sobre a densidade eletrônica e a fitologia. Isto permite utilizar a combinação dessas janelas na determinação da densidade e do fator de absorção fotoelétrico das formações. De acordo com a metodologia desenvolvida, os perfis, tanto em modelos de camadas espessas quanto finas, puderam ser simulados. O desempenho do método foi testado em formações complexas, principalmente naquelas em que a presença de minerais de argila, feldspato e mica, produziram efeitos consideráveis capazes de perturbar a resposta final das ferramentas. Os resultados mostraram que as formações com densidade entre 1.8 e 4.0 g/cm3 e fatores de absorção fotoelétrico no intervalo de 1.5 a 5 barns/e-, tiveram seus caracteres físicos e litológicos perfeitamente identificados. As concentrações de Potássio, Urânio e Tório, puderam ser obtidas com a introdução de um novo sistema de calibração, capaz de corrigir os efeitos devidos à influência de altas variâncias e de correlações negativas, observadas principalmente no cálculo das concentrações em massa de Urânio e Potássio. Na simulação da resposta da sonda CNL, utilizando o algoritmo de regressão polinomial de Tittle, foi verificado que, devido à resolução vertical limitada por ela apresentada, as camadas com espessuras inferiores ao espaçamento fonte - detector mais distante tiveram os valores de porosidade aparente medidos erroneamente. Isto deve-se ao fato do algoritmo de Tittle aplicar-se exclusivamente a camadas espessas. Em virtude desse erro, foi desenvolvido um método que leva em conta um fator de contribuição determinado pela área relativa de cada camada dentro da zona de máxima informação. Assim, a porosidade de cada ponto em subsuperfície pôde ser determinada convolvendo estes fatores com os índices de porosidade locais, porém supondo cada camada suficientemente espessa a fim de adequar-se ao algoritmo de Tittle. Por fim, as limitações adicionais impostas pela presença de minerais perturbadores, foram resolvidas supondo a formação como que composta por um mineral base totalmente saturada com água, sendo os componentes restantes considerados perturbações sobre este caso base. Estes resultados permitem calcular perfis sintéticos de poço, que poderão ser utilizados em esquemas de inversão com o objetivo de obter uma avaliação quantitativa mais detalhada de formações complexas.
Resumo:
Na maioria dos métodos de exploração geofísica, a interpretação é feita assumindo-se um modelo da Terra uniformemente estratificado. Todos os métodos de inversão, inclusive o de dados eletromagnéticos, exigem técnica de modelamento teórico de modo a auxiliar a interpretação. Na literatura os dados são geralmente interpretados em termos de uma estrutura condutiva unidimensional; comumente a Terra é assumida ser horizontalmente uniforme de modo que a condutividade é função somente da profundidade. Neste trabalho uma técnica semi-analítica de modelagem desenvolvida por Hughes (1973) foi usada para modelar a resposta magnética de duas camadas na qual a interface separando as camadas pode ser representada por uma expansão em série de Fourier. A técnica envolve um método de perturbação para encontrar o efeito de um contorno senoidal com pequenas ondulações. Como a perturbação é de primeira ordem a solução obtida é linear, podemos então usar o princípio da superposição e combinar soluções para várias senoides de forma a obter a solução para qualquer dupla camada expandida em série de Fourier. Da comparação com a técnica de elementos finitos, as seguintes conclusões podem ser tiradas: • Para um modelo de dupla camada da Terra, as camadas separadas por uma interface cuja profundidade varia senoidalmente em uma direção, as respostas eletromagnética são muito mais fortes quando a espessura da primeira camada é da ordem do skin depth da onda eletromagnética no meio, e será tanto maior quanto maior for o contraste de condutividade entre as camadas; • Por outro lado, a resistividade aparente para este modelo não é afetada pela mudança na frequência espacial (v) do contorno; • Em caso do uso da solução geral para qualquer dupla camada na Terra cuja interface possa ser desenvolvida em série de Fourier, esta técnica produziu bons resultados quando comparado com a técnica de elementos finitos. A linerização restringe a aplicação da técnica para pequenas estruturas, apesar disso, uma grande quantidade de estruturas pode ser modelada de modo simples e com tempo computacional bastante rápido; • Quando a dimensão da primeira camada possui a mesma ordem de grandeza da estrutura, esta técnica não é recomendada, porque para algumas posições de sondagem, as curvas de resistividade aparente obtidas mostram um pequeno deslocamento quando comparadas com as curvas obtidas por elementos finitos.
Resumo:
A aplicação de métodos de inversão aos dados de múltiplos levantamentos sísmicos interpoços permite a reconstrução de modelos de vagarosidade em 3-D de alta resolução adequados para monitoramento de processos de recuperação avançada de petróleo e caracterização de reservatórios. Entretanto, a falta de cobertura volumétrica uniforme de raios de levantamentos interpoços exige informação adicional ao sistema tomográfico para obtenção de soluções estáveis. A discretização do modelo em uma malha 3-D com células prismáticas triangulares e a decomposição em valores singulares são utilizadas para avaliar a reconstrução tomográfica em 3-D. O ângulo da projeção de modelos-alvo no subespaço ortogonal ao espaço nulo efetivo da matriz tomográfica é um critério adequado para se otimizar a malha de discretização do modelo interpretativo e a geometria de aquisição dos dados de modo a melhorar o condicionamento da reconstrução tomográfica. Esta abordagem pode ser utilizada durante as iterações lineares para redefinir a malha ou avaliar a necessidade de informação a priori adicional ao sistema tomográfico.
Resumo:
A Modelagem Eletromagnética Analógica tem sido uma poderosa ferramenta no estudo das respostas eletromagnéticas de uma grande variedade das técnicas de levantamentos e de modelos geológicos. Nas aplicações de métodos eletromagnéticos nas investigações de contaminação no subsolo, recentemente em grande demanda, são obtidas anomalias muito baixas (da ordem de 0,01% do campo primário). Com o objetivo de estudar em laboratório os problemas de levantamentos eletromagnéticos para alvos de baixo número de indução, um conjunto de modelagem em escala reduzida de alta sensibilidade, foi projetado e construído. Este conjunto opera na faixa de freqüência de 1 kHz até 1 MHz com excelente linearidade. O transdutor de transmissão gera suficiente densidade de fluxo magnético com corrente de até 3 App (pico a pico) circulando nele. O sistema de recepção, isto é, o conjunto de bobinas receptoras mais o pré-amplificador acoplado apresenta sensibilidade 3 V/A/m na freqüência de 10 kHz com inclinação de 20 dB/dec de freqüência. A alta sensibilidade do sistema de recepção combinada com a boa capacidade de geração do sistema transmissor, permite alcançar a resolução de 0,025% do campo primário. O conjunto dispõe ainda, de um sistema mecânico que permite posicionar o sistema de transdutores (transmissor e receptor) em posições arbitrárias com resolução de 1 mm e precisão de 0,05 mm. A precisão no deslocamento linear do sistema de sonda numa linha de 1715 mm de comprimento é alcançada por meio de um motor de passo controlado por um microcontrolador, que é rigidamente acoplado a um fuso que converte o movimento angular do motor em movimento linear. Com este conjunto, é possível simular uma grande variedade de técnicas de levantamentos eletromagnéticos no formato Slingram, isto é, dipolo-dipolo. Além da boa resolução mecânica e boa resolução de medida eletromagnética do conjunto, todo o processo de controle e aquisição de dados é operacionalizado por meio de um computador mestre.