1000 resultados para método de correção por equação matemática
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
O objetivo deste estudo foi investigar como se deu o desenvolvimento profissional de quatro professoras de matemática que lecionam na Rede Pública Estadual em Araguaína - Tocantins. Para compreender o processo de desenvolvimento profissional das professoras, adotou-se como método a pesquisa qualitativa, com enfoque narrativo, com base em entrevistas semi-estruturadas. Alicerçado em um conceito de desenvolvimento profissional tomado numa perspectiva contínua, idealizado num contexto mais amplo do trabalho docente, permeando crises, conflitos, angústias e desilusões, o estudo evidencia, no contexto dos resultados obtidos, que as múltiplas experiências vividas pelas quatro professoras constituem-se base principal de todo o seu desenvolvimento profissional. Por intermédio deste estudo, foi possível perceber que as professoras vivenciaram mudanças em seu percurso profissional, e que essas, ao se transformarem, foram modificando sua concepção e postura diante do conhecimento e da prática pedagógica. Tal mudança não se deu sem estudo, sem crises e conflitos, sem reflexão, sem o eu e o outro, sem correr e assumir riscos.
Resumo:
O objetivo desta pesquisa é investigar as concepções de professores formadores de professores de Matemática com relação ao uso da história da Matemática no processo ensino aprendizagem, com a finalidade de compreender que idéias e metodologias esses professores formadores utilizam ao tratar de abordagens históricas ou ao ministrar as disciplinas de História da Matemática. Para isso foi realizada uma pesquisa qualitativa com o uso de entrevistas semi-estruturada com um grupo de nove professores que ministram aulas em instituições de Ensino Superior, em particular em cursos de Licenciatura Plena em Matemática. Ao analisar as falas desses professores, nossos sujeitos de pesquisa, buscamos compreender suas concepções e práticas ao tratar a história da Matemática. Elegemos três categorias de análise tendo como parâmetro as análises das entrevistas que foram: Primeiros Contatos com História da Matemática; Estratégias de Ensino e Potencialidades Pedagógicas; e Obstáculos ao uso da História da Matemática. Na primeira categoria aconteceram diferenças significativas, como o fato de cinco entrevistados argumentarem não ter mantido nenhum contato com história da Matemática enquanto estudantes de graduação e os outros quatro tiveram contato apenas em uma disciplina acompanhada apenas de um determinado livro-texto. Na segunda categoria percebemos que a estratégia de ensino utilizada pela maioria dos professores ao abordar a história da Matemática é unicamente através de seminários. Na terceira categoria cinco entrevistados argumentaram haver alguns obstáculos para o uso da história da Matemática no processo ensino aprendizagem destacando alguns desses obstáculos. O estudo das concepções dos professores pesquisados possibilitou destacar o papel da história da Matemática na formação do professor, como também reflexões sobre a aplicabilidade ou dificuldade do uso da história da Matemática no ensino aprendizagem e a contribuição da história da Matemática no desenvolvimento matemático e crítico do aluno.
Resumo:
Apresenta-se nesta dissertação a proposta de um algoritmo supervisionado de classificação de imagens de sensoreamento remoto, composto de três etapas: remoção ou suavização de nuvens, segmentação e classificação.O método de remoção de nuvens usa filtragem homomórfica para tratar as obstruções causadas pela presença de nuvens suaves e o método Inpainting para remover ou suavizar a preseça de sombras e nuvens densas. Para as etapas de segmentação e classificação é proposto um método baseado na energia AC dos coeficientes da Transformada Cosseno Discreta (DCT). O modo de classificação adotado é do tipo supervisionado. Para avaliar o algioritmo foi usado um banco de 14 imagens captadas por vários sensores, das quais 12 possuem algum tipo de obstrução. Para avaliar a etapa de remoção ou suavização de nuvens e sombras são usados a razão sinal-ruído de pico (PSNR) e o coeficiente Kappa. Nessa fase, vários filtros passa-altas foram comparados para a escolha do mais eficiente. A segmentação das imagens é avaliada pelo método da coincidência entre bordas (EBC) e a classificação é avaliada pela medida da entropia relativa e do erro médio quadrático (MSE). Tão importante quanto as métricas, as imagens resultantes são apresentadas de forma a permitir a avaliação subjetiva por comparação visual. Os resultados mostram a eficiência do algoritmo proposto, principalmente quando comparado ao software Spring, distribuído pelo Instituto Nacional de Pesquisas Espaciais (INPE).
Resumo:
Este estudo relata uma pesquisa feita entre o professor-pesquisador, professor de física, e sua turma de licenciatura do CEFETPA, composta de 32 alunos na qual foi utilizado a Tendência CTS (Ciência, Tecnologia e Sociedade) e a Modelagem Matemática como ambiente para formação de professores de física. Trata-se de uma pesquisa participante, na modalidade narrativa, com objetivo de registrar e analisar as ações e os registros dos personagens da pesquisa. Foram planejadas seis atividades com o objetivo de coletar dados para responder o problema proposta nesta investigação. Esses dados foram registrados através de filme, escritos dos alunos e escritos do professor-pesquisador. Na análise dos resultados chego à conclusão de que o ambiente proporcionado pela tendência CTS e pela Modelagem Matemática, através da experimentação, são necessários para formação de um professor diferenciado, que queira dar significado a aprendizagem de seus futuros alunos, pois nas falas destes percebe-se as necessidades que esses alunos têm de conhecer outras metodologias de ensino/aprendizagem em substituição da metodologia mecanicista cartesiana que eles conviveram durante toda formação fundamental e média. Por isso que inicio este trabalho discutindo sobre a evolução do método científico, posteriormente discuto sobre a tendência CTS, a proposta do livro didático e a modelagem Matemática. Em seguida faço atividades experimentais utilizando essas metodologias propostas. Neste sentido, percebo que esses alunos, futuros professores, irão formar alunos preparados para exercer sua cidadania, com auxílio da Tendência CTS e da Modelagem matemática.
Resumo:
Este trabalho apresenta o desenvolvimento de um algoritmo computacional para análise do espalhamento eletromagnético de nanoestruturas plasmônicas isoladas. O Método dos Momentos tridimensional (MoM-3D) foi utilizado para resolver numericamente a equação integral do campo elétrico, e o modelo de Lorentz-Drude foi usado para representar a permissividade complexa das nanoestruturas metálicas. Baseado nesta modelagem matemática, um algoritmo computacional escrito em linguagem C foi desenvolvido. Como exemplo de aplicação e validação do código, dois problemas clássicos de espalhamento eletromagnético de nanopartículas metálicas foram analisados: nanoesfera e nanobarra, onde foram calculadas a resposta espectral e a distribuição do campo próximo. Os resultados obtidos foram comparados com resultados calculados por outros modelos e observou-se uma boa concordância e convergência entre eles.
Resumo:
Neste trabalho, foi desenvolvido e implementado um método de discretização espacial baseado na lei de Coulomb para geração de pontos que possam ser usados em métodos meshless para solução das equações de Maxwell. Tal método aplica a lei de Coulomb para gerar o equilíbrio espacial necessário para gerar alta qualidade de discretização espacial para um domínio de análise. Este método é denominado aqui de CLDM (Coulomb Law Discretization Method ) e é aplicado a problemas bidimensionais. Utiliza-se o método RPIM (Radial Point Interpolation Method) com truncagem por UPML (Uniaxial Perfectlly Matched Layers) para solução das equações de Maxwell no domínio do tempo (modo TMz).
Resumo:
O filtro de Kalman é aplicado para filtragem inversa ou problema de deconvolução. Nesta dissertação aplicamos o método de Kalman, considerado como uma outra visão de processamento no domínio do tempo, para separar sinal-ruído em perfil sônico admitido como uma realização de um processo estocástico não estacionário. Em um trabalho futuro estudaremos o problema da deconvolução. A dedução do filtro de Kalman destaca a relação entre o filtro de Kalman e o de Wiener. Estas deduções são baseadas na representação do sistema por variáveis de estado e modelos de processos aleatórios, com a entrada do sistema linear acrescentado com ruído branco. Os resultados ilustrados indicam a aplicabilidade dessa técnica para uma variedade de problemas de processamento de dados geofísicos, por exemplo, ideal para well log. O filtro de Kalman oferece aos geofísicos de exploração informações adicionais para o processamento, problemas de modelamento e a sua solução.
Resumo:
No presente trabalho de tese é apresentada uma nova técnica de empilhamento de dados sísmicos para a obtenção da seção de incidência normal ou afastamento fonte-receptor nulo, aplicável em meios bidimensionais com variações laterais de velocidade. Esta nova técnica denominada Empilhamento Sísmico pela Composição de Ondas Planas (empilhamento PWC) foi desenvolvida tomando como base os conceitos físicos e matemáticos da decomposição do campo de ondas em ondas planas. Este trabalho pode ser dividido em três partes: Uma primeira parte, onde se apresenta uma revisão da técnica de empilhamento sísmico convencional e do processo de decomposição do campo de ondas produzido a partir de fontes pontuais em suas correspondentes ondas planas. Na segunda parte, é apresentada a formulação matemática e o procedimento de aplicação do método de empilhamento sísmico pela composição de ondas planas. Na terceira parte se apresenta a aplicação desta nova técnica de empilhamento na serie de dados Marmousi e uma analise sobre a atenuação de ruído. A formulação matemática desta nova técnica de empilhamento sísmico foi desenvolvida com base na teoria do espalhamento aplicado a ondas sísmicas sob a restrição do modelo de aproximação de Born. Nesse sentido, inicialmente se apresenta a determinação da solução da equação de onda caustica para a configuração com afastamento fonte-receptor finito, que posteriormente é reduzido para a configuração de afastamento fonte-receptor nulo. Por outra parte, com base nessas soluções, a expressão matemática deste novo processo de empilhamento sísmico é resolvida dentro do contexto do modelo de aproximação de Born. Verificou-se que as soluções encontradas por ambos procedimentos, isto é, por meio da solução da equação da onda e pelo processo de empilhamento proposto, são iguais, mostrando-se assim que o processo de empilhamento pela composição de ondas planas produz uma seção com afastamento fonte-receptor nulo. Esta nova técnica de empilhamento basicamente consiste na aplicação de uma dupla decomposição do campo de ondas em onda planas por meio da aplicação de dois empilhamentos oblíquos (slant stack), isto é um ao longo do arranjo das fontes e outro ao longo do arranjo dos detectores; seguido pelo processo de composição das ondas planas por meio do empilhamento obliquo inverso. Portanto, com base nestas operações e com a ajuda de um exemplo de aplicação nos dados gerados a partir de um modelo simples, são descritos os fundamentos e o procedimento de aplicação (ou algoritmo) desta nova técnica de obtenção da seção de afastamento nulo. Como exemplo de aplicação do empilhamento PWC em dados correspondentes a um meio com variações laterais de velocidade, foi aplicado nos dados Marmousi gerados segundo a técnica de cobertura múltipla a partir de um modelo que representa uma situação geológica real. Por comparação da seção resultante com a similar produzida pelo método de empilhamento convencional, observa-se que a seção de afastamento nulo desta nova técnica apresenta melhor definição e continuidade dos reflectores, como também uma melhor caracterização da ocorrência de difrações. Por último, da atenuação de ruído aleatório realizada nos mesmos dados, observa-se que esta técnica de empilhamento também produz uma atenuação do ruído presente no sinal, a qual implica um aumento na relação sinal ruído.
Resumo:
A medição de parâmetros físicos de reservatórios se constitui de grande importância para a detecção de hidrocarbonetos. A obtenção destes parâmetros é realizado através de análise de amplitude com a determinação dos coeficientes de reflexão. Para isto, faz-se necessário a aplicação de técnicas especiais de processamento capazes de corrigir efeitos de divergência esférica. Um problema pode ser estabelecido através da seguinte questão: Qual o efeito relativamente mais importante como responsável pela atenuação de amplitudes, o espalhamento geométrico ou a perda por transmissividade? A justificativa desta pergunta reside em que a correção dinâmica teórica aplicada a dados reais visa exclusivamente o espalhamento geométrico. No entanto, a análise física do problema por diferentes direções põe a resposta em condições de dúvida, o que é interessante e contraditório com a prática. Uma resposta embasada mais fisicamente pode dar melhor subsídio a outros trabalhos em andamento. O presente trabalho visa o cálculo da divergência esférica segundo a teoria Newman-Gutenberg e corrigir sismogramas sintéticos calculados pelo método da refletividade. O modelo-teste é crostal para que se possa ter eventos de refração crítica além das reflexões e para, com isto, melhor orientar quanto à janela de aplicação da correção de divergência esférica o que resulta em obter o então denominado “verdadeiras amplitudes”. O meio simulado é formado por camadas plano-horizontais, homogêneas e isotrópicas. O método da refletividade é uma forma de solução da equação de onda para o referido modelo, o que torna possível um entendimento do problema em estudo. Para se chegar aos resultados obtidos foram calculados sismogramas sintéticos através do programa P-SV-SH desenvolvido por Sandmeier (1998), e curvas do espalhamento geométrico em função do tempo para o modelo estudado como descrito por Newman (1973). Demonstramos como uma das conclusões que a partir dos dados do modelo (velocidades, espessuras, densidades e profundidades) uma equação para a correção de espalhamento geométrico visando às “verdadeiras amplitudes” não é de fácil obtenção. O objetivo maior então deveria ser obter um painel da função de divergência esférica para corrigir as verdadeiras amplitudes.
Resumo:
Os métodos numéricos de Elementos Finitos e Equação Integral são comumente utilizados para investigações eletromagnéticas na Geofísica, e, para essas modelagens é importante saber qual algoritmo é mais rápido num certo modelo geofísico. Neste trabalho são feitas comparações nos resultados de tempo computacional desses dois métodos em modelos bidimensionais com heterogeneidades condutivas num semiespaço resistivo energizados por uma linha infinita de corrente (com 1000Hz de freqüência) e situada na superfície paralelamente ao "strike" das heterogeneidades. Após a validação e otimização dos programas analisamos o comportamento dos tempos de processamento nos modelos de corpos retangulares variandose o tamanho, o número e a inclinação dos corpos. Além disso, investigamos nesses métodos as etapas que demandam maior custo computacional. Em nossos modelos, o método de Elementos Finitos foi mais vantajoso que o de Equação Integral, com exceção na situação de corpos com baixa condutividade ou com geometria inclinada.
Resumo:
O empilhamento sísmico é um método de imageamento utilizado para simulação de seções sísmicas com afastamento nulo (AN) a partir de dados de cobertura múltipla, produzindo um aumento da razão sinal/ruído na seção simulada. Este método é realizado usando o processamento convencional denominado ponto médio comum (PMC), através das chamadas correções sobretempo normal e sobretempo oblíquo (STN/STO). Alternativamente, um novo método de empilhamento sísmico, denominado superfície de reflexão comum (SRC) pode ser usado para simular seções sísmicas em afastamento nulo (AN). O método SRC tem como principais características: 1) a construção de uma aproximação do tempo de trânsito de reflexões primárias na vizinhança de um raio de reflexão normal; 2) esta aproximação de empilhamento tem como parâmetros os ângulos de emergência do raio normal e os raios de curvaturas de duas ondas hipotéticas denominadas onda ponto de incidência normal (onda PIN) e onda normal (onda N). O método pressupõe ainda que a velocidade da onda longitudinal na parte superior do modelo próxima à superfície da Terra seja conhecida. Para determinar adequadamente os parâmetros supracitados, fundamentais para o método de imageamento SRC, são necessárias estratégias de busca que utilizem casos particulares da aproximação de segunda ordem hiperbólica dos tempos de trânsito. As estratégias de busca apresentadas são: SRC pragmático-extendito e SRC global-local. Neste trabalho é apresentada uma revisão extensa dos fundamentos teóricos de método de empilhamento SRC, como também das estratégias de busca dos parâmetros SRC, dos algoritmos de implementação, e da delimitação de aberturas do operador de empilhamento SRC usando conceitos de zonas de Fresnel e o fator de estiramento da correção STN. Como um exemplo de aplicação dos atributos ou parâmetros SRC é apresentado o resultado da correção STN, sem estiramento do sinal sísmico, obtido utilizando as velocidades estimadas dos parâmetros SRC. Também, são apresentados os resultados da aplicação dos três métodos de empilhamento (PMC (STN/STO), SRC pragmático-extendido, SRC global-local) nos dados sintéticos Marmousi e real terrestre da bacia paleozóica Amazônica. Finalmente apresentam-se as discussões sobre os resultados, quanto à resolução da imagem sísmica e custo computacional.
Resumo:
A saturação de água é a principal propriedade petrofísica para a avaliação de reservatórios de hidrocarbonetos, pois através da análise dos seus valores é definida a destinação final do poço recém perfurado, como produtor ou poço seco. O cálculo da saturação de água para as formações limpas é, comumente, realizado a partir da equação de Archie, que envolve a determinação da resistividade da zona virgem, obtida a partir de um perfil de resistividade profunda e o cálculo de porosidade da rocha, obtida a partir dos perfis de porosidade. A equação de Archie envolve ainda, a determinação da resistividade da água de formação, que normalmente necessita de definição local e correção para a profundidade da formação e da adoção de valores convenientes para os coeficientes de Archie. Um dos métodos mais tradicionais da geofísica de poço para o cálculo da saturação de água é o método de Hingle, particularmente útil nas situações de desconhecimento da resistividade da água de formação. O método de Hingle estabelece uma forma linear para a equação de Archie, a partir dos perfis de resistividade e porosidade e a representa na forma gráfica, como a reta da água ou dos pontos, no gráfico de Hingle, com saturação de água unitária e o valor da resistividade da água de formação é obtido a partir da inclinação da reta da água. Independente do desenvolvimento tecnológico das ferramentas de perfilagem e dos computadores digitais, o geofísico, ainda hoje, se vê obrigado a realizar a interpretação de ábacos ou gráficos, sujeito a ocorrência de erros derivados da sua acuidade visual. Com o objetivo de mitigar a ocorrência deste tipo de erro e produzir uma primeira aproximação para a saturação de água em tempo real de perfilagem do poço, insere-se o trabalho apresentado nesta dissertação, com a utilização de uma conveniente arquitetura de rede neural artificial, a rede competitiva angular, capaz de identificar a localização da reta da água, a partir da identificação de padrões angulares presentes nos dados dos perfis de porosidade e resistividade representados no gráfico de Hingle. A avaliação desta metodologia é realizada sobre dados sintéticos, que satisfazem integralmente a equação de Archie, e sobre dados reais.
Resumo:
Neste trabalho avaliamos uma classe de operadores de continuação de campos de onda, baseados em equações unidirecionais e com aplicação direta à migração sísmica. O método de representação de equações de onda unidirecionais, desenvolvido neste trabalho, é válido para abertura angular arbitrária, baseia-se no conceito de rigidez de um semiespaço, na transformação Dirichlet-Neumann e em sua discretização por elementos finitos. O método de construção dos operadores de continuação requer a introdução de variáveis auxiliares cujo número cresce em função da maior abertura angular desejada para o operador. Efetuamos a implementação no domínio do espaço e da frequência o que permite sua imediata paralelização. Baseados em experimentos numéricos, que avaliam a relação de dispersão e a resposta ao impulso do operador, propomos prescrições que permitem especificar o número de variáveis auxiliares e o passo de continuação para o operador de migração. A aplicação do algoritmo nos dados do modelo de domo salino da SEG-EAGE demonstra a capacidade do algoritmo em migrar refletores com forte mergulho em meios com forte variação lateral de velocidade.
Resumo:
Nos últimos anos tem-se verificado um interesse crescente no desenvolvimento de algoritmos de imageamento sísmico com a finalidade de obter uma imagem da subsuperfície da terra. A migração pelo método de Kirchhoff, por exemplo, é um método de imageamento muito eficiente empregado na busca da localização de refletores na subsuperficie, quando dispomos do cálculo dos tempos de trânsito necessários para a etapa de empilhamento, sendo estes obtidos neste trabalho através da solução da equação eiconal. Primeiramente, é apresentada a teoria da migração de Kirchhoff em profundidade baseada na teoria do raio, sendo em seguida introduzida a equação eiconal, através da qual são obtidos os tempos de trânsitos empregados no empilhamento das curvas de difrações. Em seguida é desenvolvido um algoritmo de migração em profundidade fazendo uso dos tempos de trânsito obtidos através da equação eiconal. Finalmente, aplicamos este algoritmo a dados sintéticos contendo ruído aditivo e múltiplas e obtemos como resultado uma seção sísmica na profundidade. Através dos experimentos feitos neste trabalho observou-se que o algoritmo de migração desenvolvido mostrou-se bastante eficiente e eficaz na reconstrução da imagem dos refletores.