18 resultados para método de correção por equação matemática
em Universidade Federal do Pará
Resumo:
Este trabalho consiste na proposta de uma sequencia didática para o ensino de Sistemas de Equações Algébricas Lineares na qual estabelecemos uma conexão entre o Método da Substituição e o buscando a conversão de registros de representação. O objetivo da proposta foi verificar se os alunos conseguem realizar a conexão entre os dois métodos desenvolvendo a conversão do método da substituição no Método do escalonamento caracterizando assim, o aprendizado do objeto matemático estudado, segundo a teoria de registros de representação semiótica de Raimund Duval. A pesquisa foi realizada com alunos do ensino médio em uma escola da rede pública estadual da cidade de Belém e os resultados apontaram para o estabelecimento de uma conexão entre os dois métodos empregados no processo de resolução de sistemas.
Resumo:
As imagens da parede do poço obtidas através da ferramenta UBI (Ultrasonic Borehole Imager) são amplamente utilizadas por geólogos e engenheiros de petróleo para identificar eventos geológicos nas paredes de poços abertos e na inspeção dos tubos de revestimento, uma vez que este perfil praticamente fornece uma fotografia da parede do poço. As ferramentas de imageamento acústico produzem imagens do tempo de trânsito e da amplitude do pulso acústico gerado pela ferramenta e refletido na parede do poço. Entretanto, estas imagens podem ter uma interpretação não realista, uma vez que elas podem ter seu aspecto alterado em razão do movimento da ferramenta no interior do poço. Este trabalho apresenta o modelamento das imagens de tempo de trânsito a partir da aplicação do critério de Coulomb para a ruptura da parede do poço submetida a um estado plano de tensões, a qual fornecerá a seção do poço, que é a forma geométrica que será traçada pela ferramenta de imageamento acústico do poço. O deslocamento ascensional da ferramenta e as imperfeições da parede do poço, normalmente, são os responsáveis pelo deslocamento da posição do transdutor em relação ao eixo do poço. Este efeito pode ter grande responsabilidade nas imperfeições das imagens de tempo de trânsito. Assim, a correção dessas imagens, chamada de correção da descentralização, busca o reposicionamento do transdutor para a posição do eixo do poço. Apresenta-se, também, um método de correção do efeito da descentralização da ferramenta baseado neste modelamento. O método é proposto com base na geometria analítica plana e no método do raio para a definição do tempo de trânsito do pulso acústico, com o objetivo de reconstruir as imagens de tempo de trânsito obtidas com a ferramenta descentralizada, ou seja, corrigir estas imagens tornando-as como se fossem obtidas com a ferramenta centralizada em relação ao eixo do poço.
Resumo:
O estudo do comportamento dinâmico da junção que se forma ao se unir uma fibra nervosa a um semicondutor é objeto de muitas pesquisas ultimamente em grandes centros de pesquisas. Estes estudos levam basicamente a dois modelos matemáticos de modelagem da junção: o modelo de contacto de ponta e o modelo de contacto de área. Utilizando o modelo de contacto de área, resolve-se a equação diferencial que descreve o comportamento dinâmico da junção neurônio-semicondutor, através de dois métodos analíticos. No primeiro método a solução da equação diferencial é obtida através da soma de duas equações: da solução da equação homogênea mais a da equação particular, obtendo dessa forma, o resultado que consta na literatura. Já o segundo método é o que descreve a solução usando as funções de Green, cujo resultado, embora não coincidente com o da literatura, é totalmente coincidente na região de interesse dentro da junção. A vantagem do uso da função de Green na determinação da solução de uma equação diferencial, é que, uma vez determinada essa função, a solução dessa equação diferencial é obtida de forma imediata, bastando para tal, fazer um processo de integração do produto entre a função de Green e a função de excitação ou fonte. Por último, mostra-se a completa equivalência entre os dois métodos de soluções da equação diferencial.
Resumo:
Este trabalho discute dois aspectos da migração em profundidade através da continuação para baixo dos campos de onda: o tratamento de modos evanescentes e a correção da amplitude dos eventos migrados. Estes dois aspectos são discutidos em meios isotrópicos e para uma classe de meios anisotrópicos. Migrações por diferenças finitas (FD) e por diferenças finitas e Fourier (FFD) podem ser instáveis em meios com forte variação lateral de velocidade. Estes métodos utilizam aproximações de Padé reais para representar o operador que descreve a propagação de ondas descendentes. Estas abordagens não são capazes de tratar corretamente os modos evanescentes, o que pode levar à instabilidades numéricas em meios com forte variação lateral de velocidade. Uma solução possível para esse problema é utilizar aproximação de Padé complexa, que consegue melhor representar os modos evanescentes associados às reflexões pós-críticas, e neste trabalho esta aproximação é utilizada para obter algoritmos FD e híbrido FD/FFD estáveis para migração em meios transversalmente isotrópicos com eixo de simetria vertical (VTI), mesmo na presença de forte variação nas propriedades elásticas do meio. A estabilidade dos algoritmos propostos para meios VTI foi validada através da resposta ao impulso do operador de migração e pela sua aplicação na migração de dados sintéticos, em meios fortemente heterogêneos. Métodos de migração por equação de onda em meios heterogêneos não tratam corretamente a amplitude dos eventos durante a propagação. As equações de onda unidirecionais tradicionais descrevem corretamente apenas a parte cinemática da propagação do campo de onda. Assim, para uma descrição correta das amplitudes deve-se usar as equações de onda unidirecionais de amplitude verdadeira. Em meios verticalmente heterogêneos, as equações de onda unidirecionais de amplitude verdadeira podem ser resolvidas analiticamente. Em meios lateralmente heterogêneos, essas equações não possuem uma solução analítica. Mesmo soluções numéricas tendem a ser instáveis. Para melhorar a compensação de amplitude na migração, em meios com variação lateral de velocidade, é proposto uma aproximação estável para solução da equação de onda unidirecional de amplitude verdadeira. Esta nova aproximação é implementada nas migrações split-step e diferenças finitas e Fourier (FFD). O algoritmo split-step com correção de amplitude foi estendido para meios VTI. A migração pré e pós-empilhamento de dados sintéticos, em meios isotrópicos e anisotrópicos, confirmam o melhor tratamento das amplitudes e estabilidade dos algoritmos propostos.
Resumo:
O objetivo deste estudo foi investigar como se deu o desenvolvimento profissional de quatro professoras de matemática que lecionam na Rede Pública Estadual em Araguaína - Tocantins. Para compreender o processo de desenvolvimento profissional das professoras, adotou-se como método a pesquisa qualitativa, com enfoque narrativo, com base em entrevistas semi-estruturadas. Alicerçado em um conceito de desenvolvimento profissional tomado numa perspectiva contínua, idealizado num contexto mais amplo do trabalho docente, permeando crises, conflitos, angústias e desilusões, o estudo evidencia, no contexto dos resultados obtidos, que as múltiplas experiências vividas pelas quatro professoras constituem-se base principal de todo o seu desenvolvimento profissional. Por intermédio deste estudo, foi possível perceber que as professoras vivenciaram mudanças em seu percurso profissional, e que essas, ao se transformarem, foram modificando sua concepção e postura diante do conhecimento e da prática pedagógica. Tal mudança não se deu sem estudo, sem crises e conflitos, sem reflexão, sem o eu e o outro, sem correr e assumir riscos.
Resumo:
O objetivo desta pesquisa é investigar as concepções de professores formadores de professores de Matemática com relação ao uso da história da Matemática no processo ensino aprendizagem, com a finalidade de compreender que idéias e metodologias esses professores formadores utilizam ao tratar de abordagens históricas ou ao ministrar as disciplinas de História da Matemática. Para isso foi realizada uma pesquisa qualitativa com o uso de entrevistas semi-estruturada com um grupo de nove professores que ministram aulas em instituições de Ensino Superior, em particular em cursos de Licenciatura Plena em Matemática. Ao analisar as falas desses professores, nossos sujeitos de pesquisa, buscamos compreender suas concepções e práticas ao tratar a história da Matemática. Elegemos três categorias de análise tendo como parâmetro as análises das entrevistas que foram: Primeiros Contatos com História da Matemática; Estratégias de Ensino e Potencialidades Pedagógicas; e Obstáculos ao uso da História da Matemática. Na primeira categoria aconteceram diferenças significativas, como o fato de cinco entrevistados argumentarem não ter mantido nenhum contato com história da Matemática enquanto estudantes de graduação e os outros quatro tiveram contato apenas em uma disciplina acompanhada apenas de um determinado livro-texto. Na segunda categoria percebemos que a estratégia de ensino utilizada pela maioria dos professores ao abordar a história da Matemática é unicamente através de seminários. Na terceira categoria cinco entrevistados argumentaram haver alguns obstáculos para o uso da história da Matemática no processo ensino aprendizagem destacando alguns desses obstáculos. O estudo das concepções dos professores pesquisados possibilitou destacar o papel da história da Matemática na formação do professor, como também reflexões sobre a aplicabilidade ou dificuldade do uso da história da Matemática no ensino aprendizagem e a contribuição da história da Matemática no desenvolvimento matemático e crítico do aluno.
Resumo:
Apresenta-se nesta dissertação a proposta de um algoritmo supervisionado de classificação de imagens de sensoreamento remoto, composto de três etapas: remoção ou suavização de nuvens, segmentação e classificação.O método de remoção de nuvens usa filtragem homomórfica para tratar as obstruções causadas pela presença de nuvens suaves e o método Inpainting para remover ou suavizar a preseça de sombras e nuvens densas. Para as etapas de segmentação e classificação é proposto um método baseado na energia AC dos coeficientes da Transformada Cosseno Discreta (DCT). O modo de classificação adotado é do tipo supervisionado. Para avaliar o algioritmo foi usado um banco de 14 imagens captadas por vários sensores, das quais 12 possuem algum tipo de obstrução. Para avaliar a etapa de remoção ou suavização de nuvens e sombras são usados a razão sinal-ruído de pico (PSNR) e o coeficiente Kappa. Nessa fase, vários filtros passa-altas foram comparados para a escolha do mais eficiente. A segmentação das imagens é avaliada pelo método da coincidência entre bordas (EBC) e a classificação é avaliada pela medida da entropia relativa e do erro médio quadrático (MSE). Tão importante quanto as métricas, as imagens resultantes são apresentadas de forma a permitir a avaliação subjetiva por comparação visual. Os resultados mostram a eficiência do algoritmo proposto, principalmente quando comparado ao software Spring, distribuído pelo Instituto Nacional de Pesquisas Espaciais (INPE).
Resumo:
Este estudo relata uma pesquisa feita entre o professor-pesquisador, professor de física, e sua turma de licenciatura do CEFETPA, composta de 32 alunos na qual foi utilizado a Tendência CTS (Ciência, Tecnologia e Sociedade) e a Modelagem Matemática como ambiente para formação de professores de física. Trata-se de uma pesquisa participante, na modalidade narrativa, com objetivo de registrar e analisar as ações e os registros dos personagens da pesquisa. Foram planejadas seis atividades com o objetivo de coletar dados para responder o problema proposta nesta investigação. Esses dados foram registrados através de filme, escritos dos alunos e escritos do professor-pesquisador. Na análise dos resultados chego à conclusão de que o ambiente proporcionado pela tendência CTS e pela Modelagem Matemática, através da experimentação, são necessários para formação de um professor diferenciado, que queira dar significado a aprendizagem de seus futuros alunos, pois nas falas destes percebe-se as necessidades que esses alunos têm de conhecer outras metodologias de ensino/aprendizagem em substituição da metodologia mecanicista cartesiana que eles conviveram durante toda formação fundamental e média. Por isso que inicio este trabalho discutindo sobre a evolução do método científico, posteriormente discuto sobre a tendência CTS, a proposta do livro didático e a modelagem Matemática. Em seguida faço atividades experimentais utilizando essas metodologias propostas. Neste sentido, percebo que esses alunos, futuros professores, irão formar alunos preparados para exercer sua cidadania, com auxílio da Tendência CTS e da Modelagem matemática.
Resumo:
Este trabalho apresenta o desenvolvimento de um algoritmo computacional para análise do espalhamento eletromagnético de nanoestruturas plasmônicas isoladas. O Método dos Momentos tridimensional (MoM-3D) foi utilizado para resolver numericamente a equação integral do campo elétrico, e o modelo de Lorentz-Drude foi usado para representar a permissividade complexa das nanoestruturas metálicas. Baseado nesta modelagem matemática, um algoritmo computacional escrito em linguagem C foi desenvolvido. Como exemplo de aplicação e validação do código, dois problemas clássicos de espalhamento eletromagnético de nanopartículas metálicas foram analisados: nanoesfera e nanobarra, onde foram calculadas a resposta espectral e a distribuição do campo próximo. Os resultados obtidos foram comparados com resultados calculados por outros modelos e observou-se uma boa concordância e convergência entre eles.
Resumo:
Neste trabalho, foi desenvolvido e implementado um método de discretização espacial baseado na lei de Coulomb para geração de pontos que possam ser usados em métodos meshless para solução das equações de Maxwell. Tal método aplica a lei de Coulomb para gerar o equilíbrio espacial necessário para gerar alta qualidade de discretização espacial para um domínio de análise. Este método é denominado aqui de CLDM (Coulomb Law Discretization Method ) e é aplicado a problemas bidimensionais. Utiliza-se o método RPIM (Radial Point Interpolation Method) com truncagem por UPML (Uniaxial Perfectlly Matched Layers) para solução das equações de Maxwell no domínio do tempo (modo TMz).
Resumo:
O filtro de Kalman é aplicado para filtragem inversa ou problema de deconvolução. Nesta dissertação aplicamos o método de Kalman, considerado como uma outra visão de processamento no domínio do tempo, para separar sinal-ruído em perfil sônico admitido como uma realização de um processo estocástico não estacionário. Em um trabalho futuro estudaremos o problema da deconvolução. A dedução do filtro de Kalman destaca a relação entre o filtro de Kalman e o de Wiener. Estas deduções são baseadas na representação do sistema por variáveis de estado e modelos de processos aleatórios, com a entrada do sistema linear acrescentado com ruído branco. Os resultados ilustrados indicam a aplicabilidade dessa técnica para uma variedade de problemas de processamento de dados geofísicos, por exemplo, ideal para well log. O filtro de Kalman oferece aos geofísicos de exploração informações adicionais para o processamento, problemas de modelamento e a sua solução.
Resumo:
No presente trabalho de tese é apresentada uma nova técnica de empilhamento de dados sísmicos para a obtenção da seção de incidência normal ou afastamento fonte-receptor nulo, aplicável em meios bidimensionais com variações laterais de velocidade. Esta nova técnica denominada Empilhamento Sísmico pela Composição de Ondas Planas (empilhamento PWC) foi desenvolvida tomando como base os conceitos físicos e matemáticos da decomposição do campo de ondas em ondas planas. Este trabalho pode ser dividido em três partes: Uma primeira parte, onde se apresenta uma revisão da técnica de empilhamento sísmico convencional e do processo de decomposição do campo de ondas produzido a partir de fontes pontuais em suas correspondentes ondas planas. Na segunda parte, é apresentada a formulação matemática e o procedimento de aplicação do método de empilhamento sísmico pela composição de ondas planas. Na terceira parte se apresenta a aplicação desta nova técnica de empilhamento na serie de dados Marmousi e uma analise sobre a atenuação de ruído. A formulação matemática desta nova técnica de empilhamento sísmico foi desenvolvida com base na teoria do espalhamento aplicado a ondas sísmicas sob a restrição do modelo de aproximação de Born. Nesse sentido, inicialmente se apresenta a determinação da solução da equação de onda caustica para a configuração com afastamento fonte-receptor finito, que posteriormente é reduzido para a configuração de afastamento fonte-receptor nulo. Por outra parte, com base nessas soluções, a expressão matemática deste novo processo de empilhamento sísmico é resolvida dentro do contexto do modelo de aproximação de Born. Verificou-se que as soluções encontradas por ambos procedimentos, isto é, por meio da solução da equação da onda e pelo processo de empilhamento proposto, são iguais, mostrando-se assim que o processo de empilhamento pela composição de ondas planas produz uma seção com afastamento fonte-receptor nulo. Esta nova técnica de empilhamento basicamente consiste na aplicação de uma dupla decomposição do campo de ondas em onda planas por meio da aplicação de dois empilhamentos oblíquos (slant stack), isto é um ao longo do arranjo das fontes e outro ao longo do arranjo dos detectores; seguido pelo processo de composição das ondas planas por meio do empilhamento obliquo inverso. Portanto, com base nestas operações e com a ajuda de um exemplo de aplicação nos dados gerados a partir de um modelo simples, são descritos os fundamentos e o procedimento de aplicação (ou algoritmo) desta nova técnica de obtenção da seção de afastamento nulo. Como exemplo de aplicação do empilhamento PWC em dados correspondentes a um meio com variações laterais de velocidade, foi aplicado nos dados Marmousi gerados segundo a técnica de cobertura múltipla a partir de um modelo que representa uma situação geológica real. Por comparação da seção resultante com a similar produzida pelo método de empilhamento convencional, observa-se que a seção de afastamento nulo desta nova técnica apresenta melhor definição e continuidade dos reflectores, como também uma melhor caracterização da ocorrência de difrações. Por último, da atenuação de ruído aleatório realizada nos mesmos dados, observa-se que esta técnica de empilhamento também produz uma atenuação do ruído presente no sinal, a qual implica um aumento na relação sinal ruído.
Resumo:
A medição de parâmetros físicos de reservatórios se constitui de grande importância para a detecção de hidrocarbonetos. A obtenção destes parâmetros é realizado através de análise de amplitude com a determinação dos coeficientes de reflexão. Para isto, faz-se necessário a aplicação de técnicas especiais de processamento capazes de corrigir efeitos de divergência esférica. Um problema pode ser estabelecido através da seguinte questão: Qual o efeito relativamente mais importante como responsável pela atenuação de amplitudes, o espalhamento geométrico ou a perda por transmissividade? A justificativa desta pergunta reside em que a correção dinâmica teórica aplicada a dados reais visa exclusivamente o espalhamento geométrico. No entanto, a análise física do problema por diferentes direções põe a resposta em condições de dúvida, o que é interessante e contraditório com a prática. Uma resposta embasada mais fisicamente pode dar melhor subsídio a outros trabalhos em andamento. O presente trabalho visa o cálculo da divergência esférica segundo a teoria Newman-Gutenberg e corrigir sismogramas sintéticos calculados pelo método da refletividade. O modelo-teste é crostal para que se possa ter eventos de refração crítica além das reflexões e para, com isto, melhor orientar quanto à janela de aplicação da correção de divergência esférica o que resulta em obter o então denominado “verdadeiras amplitudes”. O meio simulado é formado por camadas plano-horizontais, homogêneas e isotrópicas. O método da refletividade é uma forma de solução da equação de onda para o referido modelo, o que torna possível um entendimento do problema em estudo. Para se chegar aos resultados obtidos foram calculados sismogramas sintéticos através do programa P-SV-SH desenvolvido por Sandmeier (1998), e curvas do espalhamento geométrico em função do tempo para o modelo estudado como descrito por Newman (1973). Demonstramos como uma das conclusões que a partir dos dados do modelo (velocidades, espessuras, densidades e profundidades) uma equação para a correção de espalhamento geométrico visando às “verdadeiras amplitudes” não é de fácil obtenção. O objetivo maior então deveria ser obter um painel da função de divergência esférica para corrigir as verdadeiras amplitudes.
Resumo:
Os métodos numéricos de Elementos Finitos e Equação Integral são comumente utilizados para investigações eletromagnéticas na Geofísica, e, para essas modelagens é importante saber qual algoritmo é mais rápido num certo modelo geofísico. Neste trabalho são feitas comparações nos resultados de tempo computacional desses dois métodos em modelos bidimensionais com heterogeneidades condutivas num semiespaço resistivo energizados por uma linha infinita de corrente (com 1000Hz de freqüência) e situada na superfície paralelamente ao "strike" das heterogeneidades. Após a validação e otimização dos programas analisamos o comportamento dos tempos de processamento nos modelos de corpos retangulares variandose o tamanho, o número e a inclinação dos corpos. Além disso, investigamos nesses métodos as etapas que demandam maior custo computacional. Em nossos modelos, o método de Elementos Finitos foi mais vantajoso que o de Equação Integral, com exceção na situação de corpos com baixa condutividade ou com geometria inclinada.
Resumo:
O empilhamento sísmico é um método de imageamento utilizado para simulação de seções sísmicas com afastamento nulo (AN) a partir de dados de cobertura múltipla, produzindo um aumento da razão sinal/ruído na seção simulada. Este método é realizado usando o processamento convencional denominado ponto médio comum (PMC), através das chamadas correções sobretempo normal e sobretempo oblíquo (STN/STO). Alternativamente, um novo método de empilhamento sísmico, denominado superfície de reflexão comum (SRC) pode ser usado para simular seções sísmicas em afastamento nulo (AN). O método SRC tem como principais características: 1) a construção de uma aproximação do tempo de trânsito de reflexões primárias na vizinhança de um raio de reflexão normal; 2) esta aproximação de empilhamento tem como parâmetros os ângulos de emergência do raio normal e os raios de curvaturas de duas ondas hipotéticas denominadas onda ponto de incidência normal (onda PIN) e onda normal (onda N). O método pressupõe ainda que a velocidade da onda longitudinal na parte superior do modelo próxima à superfície da Terra seja conhecida. Para determinar adequadamente os parâmetros supracitados, fundamentais para o método de imageamento SRC, são necessárias estratégias de busca que utilizem casos particulares da aproximação de segunda ordem hiperbólica dos tempos de trânsito. As estratégias de busca apresentadas são: SRC pragmático-extendito e SRC global-local. Neste trabalho é apresentada uma revisão extensa dos fundamentos teóricos de método de empilhamento SRC, como também das estratégias de busca dos parâmetros SRC, dos algoritmos de implementação, e da delimitação de aberturas do operador de empilhamento SRC usando conceitos de zonas de Fresnel e o fator de estiramento da correção STN. Como um exemplo de aplicação dos atributos ou parâmetros SRC é apresentado o resultado da correção STN, sem estiramento do sinal sísmico, obtido utilizando as velocidades estimadas dos parâmetros SRC. Também, são apresentados os resultados da aplicação dos três métodos de empilhamento (PMC (STN/STO), SRC pragmático-extendido, SRC global-local) nos dados sintéticos Marmousi e real terrestre da bacia paleozóica Amazônica. Finalmente apresentam-se as discussões sobre os resultados, quanto à resolução da imagem sísmica e custo computacional.