999 resultados para Método da inversão de fase


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pós-graduação em Ciência e Tecnologia de Materiais - FC

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Apresenta-se nesta dissertação a proposta de um algoritmo supervisionado de classificação de imagens de sensoreamento remoto, composto de três etapas: remoção ou suavização de nuvens, segmentação e classificação.O método de remoção de nuvens usa filtragem homomórfica para tratar as obstruções causadas pela presença de nuvens suaves e o método Inpainting para remover ou suavizar a preseça de sombras e nuvens densas. Para as etapas de segmentação e classificação é proposto um método baseado na energia AC dos coeficientes da Transformada Cosseno Discreta (DCT). O modo de classificação adotado é do tipo supervisionado. Para avaliar o algioritmo foi usado um banco de 14 imagens captadas por vários sensores, das quais 12 possuem algum tipo de obstrução. Para avaliar a etapa de remoção ou suavização de nuvens e sombras são usados a razão sinal-ruído de pico (PSNR) e o coeficiente Kappa. Nessa fase, vários filtros passa-altas foram comparados para a escolha do mais eficiente. A segmentação das imagens é avaliada pelo método da coincidência entre bordas (EBC) e a classificação é avaliada pela medida da entropia relativa e do erro médio quadrático (MSE). Tão importante quanto as métricas, as imagens resultantes são apresentadas de forma a permitir a avaliação subjetiva por comparação visual. Os resultados mostram a eficiência do algoritmo proposto, principalmente quando comparado ao software Spring, distribuído pelo Instituto Nacional de Pesquisas Espaciais (INPE).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A determinação das concentrações sanguíneas de antimaláricos empregando métodos rápidos, simples e sensíveis, representa importante ferramenta para otimização dos esquemas terapêuticos adotados atualmente no Brasil. Neste sentido, este trabalho objetivou a validação de uma metodologia analítica por cromatografia líquida de alta eficiência com detecção no ultravioleta para determinação de cloroquina em amostras de sangue total adsorvidas em papel de filtro, oriundas de pacientes com malária vivax. Foram avaliados: precisão intra e inter ensaio, recuperação, limites de detecção e de quantificação, robustez, estabilidade, linearidade e seletividade. Os resultados demonstraram que os coeficientes de variação intra ensaio em concentrações de 100 a 1000 ng/mL variou de 6 a 10% tanto para cloroquina, quanto para desetilcloroquina. Os coeficientes de variação inter ensaio em concentrações de 100 a 1000 ng/mL variaram de 5 a 10% e 4 a 10% para cloroquina e desetilcloroquina, respectivamente. Os limites de detecção foram 62.5ng/mL para cloroquina e 50.0ng/mL para desetilcloroquina e os limites de quantificação foram 100ng/mL para ambos os analitos. A recuperação em concentração de 100 a 1000 ng/mL variou de 90 a 105% e 95 a 105%, para cloroquina e desetilcloroquina, respectivamente. O método foi linear em intervalo de concentração de 100 ng/mL a 2000 para cloroquina e de 100 a 800 ng/mL para desetilcloroquina. O método foi robusto para pequenas variações de fluxo, pH da fase móvel e composição da fase orgânica. Não foram observados interferentes no procedimento validado dentre aqueles fármacos utilizados no tratamento da malária. A determinação de cloroquina e desetilcloroquina em pacientes com malária vivax cujos valores médios foram de 1266±455 ng/mL e 357±165ng/mL, caracterizaram a aplicabilidade do procedimento validado para a determinação deste antimalárico nestes pacientes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho, são propostas metodologias para otimização do parâmetro de forma local c do método RPIM (Radial Point Interpolation Method). Com as técnicas apresentadas, é possível reduzir problemas com inversão de matrizes comuns em métodos sem malha e, também, garantir um maior grau de liberdade e precisão para a utilização da técnica, já que se torna possível uma definição semi-automática dos fatores de forma mais adequados para cada domínio de suporte. Além disso, é apresentado um algoritmo baseado no Line Sweep para a geração eficiente dos domínios de suporte.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo central deste trabalho é o estudo do desempenho do operador deconvolucional WHL na compressão do pulso-fonte sísmico, sob condições especiais de fase não-mínima e da densidade de eventos no traço, como casos advogados para dados reais e processamento em rotina. O método de ataque ao problema construído é centrado no conteúdo da informação da função autocorrelação submetida a diferentes condições: (a) de truncamento e tipo de janelas; (b) das características da fase do operador (se mínima ou não-mínima); (c) da medida de qualidade; (d) do nível de embranquecimento; (e) do ruído presente e da equalização; (f) do balanceamento do traço; (g) dos princípios físicos da propagação expressos e limitados pelo modelo convolutional. Os resultados obtidos são apenas na forma numérica, organizados na forma de álbuns com dificuldades crescentes, e demonstram como o uso de janelas na autocorrelação serve para diagnosticar e melhorar a performance dos operadores. Concluímos que muitas perguntas ainda surgem quando técnicas de deconvolução são aplicadas a seções sísmicas de bacias sedimentares, e que o modelo de Goupillaud é conveniente para simulações e análises devido a sua descrição matemática simples e completa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Utilizou-se o método seqüencial Monte Carlo / Mecânica Quântica para obterem-se os desvios de solvatocromismo e os momentos de dipolo dos sistemas de moléculas orgânicas: Uracil em meio aquoso, -Caroteno em Ácido Oléico, Ácido Ricinoléico em metanol e em Etanol e Ácido Oléico em metanol e em Etanol. As otimizações das geometrias e as distribuições de cargas foram obtidas através da Teoria do Funcional Densidade com o funcional B3LYP e os conjuntos de funções de base 6-31G(d) para todas as moléculas exceto para a água e Uracil, as quais, foram utilizadas o conjunto de funções de base 6-311++G(d,p). No tratamento clássico, Monte Carlo, aplicou-se o algoritmo Metropólis através do programa DICE. A separação de configurações estatisticamente relevantes para os cálculos das propriedades médias foi implementada com a utilização da função de auto-correlação calculada para cada sistema. A função de distribuição radial dos líquidos moleculares foi utilizada para a separação da primeira camada de solvatação, a qual, estabelece a principal interação entre soluto-solvente. As configurações relevantes da primeira camada de solvatação de cada sistema foram submetidas a cálculos quânticos a nível semi-empírico com o método ZINDO/S-CI. Os espectros de absorção foram obtidos para os solutos em fase gasosa e para os sistemas de líquidos moleculares comentados. Os momentos de dipolo elétrico dos mesmos também foram obtidos. Todas as bandas dos espectros de absorção dos sistemas tiveram um desvio para o azul, exceto a segunda banda do sistema de Beta-Caroteno em Ácido Oléico que apresentou um desvio para o vermelho. Os resultados encontrados apresentam-se em excelente concordância com os valores experimentais encontrados na literatura. Todos os sistemas tiveram aumento no momento de dipolo elétrico devido às moléculas dos solventes serem moléculas polares. Os sistemas de ácidos graxos em álcoois apresentaram resultados muito semelhantes, ou seja, os ácidos graxos mencionados possuem comportamentos espectroscópicos semelhantes submetidos aos mesmos solventes. As simulações através do método seqüencial Monte Carlo / Mecânica Quântica estudadas demonstraram que a metodologia é eficaz para a obtenção das propriedades espectroscópicas dos líquidos moleculares analisados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O método de empilhamento sísmico CRS simula seções sísmicas ZO a partir de dados de cobertura múltipla, independente do macro-modelo de velocidades. Para meios 2-D, a função tempo de trânsito de empilhamento depende de três parâmetros, a saber: do ângulo de emergência do raio de reflexão normal (em relação à normal da superfície) e das curvaturas das frentes de onda relacionadas às ondas hipotéticas, denominadas NIP e Normal. O empilhamento CRS consiste na soma das amplitudes dos traços sísmicos em dados de múltipla cobertura, ao longo da superfície definida pela função tempo de trânsito do empilhamento CRS, que melhor se ajusta aos dados. O resultado do empilhamento CRS é assinalado a pontos de uma malha pré-definida na seção ZO. Como resultado tem-se a simulação de uma seção sísmica ZO. Isto significa que para cada ponto da seção ZO deve-se estimar o trio de parâmetros ótimos que produz a máxima coerência entre os eventos de reflexão sísmica. Nesta Tese apresenta-se fórmulas para o método CRS 2-D e para a velocidade NMO, que consideram a topografia da superfície de medição. O algoritmo é baseado na estratégia de otimização dos parâmetros de fórmula CRS através de um processo em três etapas: 1) Busca dos parâmetros, o ângulo de emergência e a curvatura da onda NIP, aplicando uma otimização global, 2) busca de um parâmetro, a curvatura da onda N, aplicando uma otimização global, e 3) busca de três parâmetros aplicando uma otimização local para refinar os parâmetros estimados nas etapas anteriores. Na primeira e segunda etapas é usado o algoritmo Simulated Annealing (SA) e na terceira etapa é usado o algoritmo Variable Metric (VM). Para o caso de uma superfície de medição com variações topográficas suaves, foi considerada a curvatura desta superfície no algoritmo do método de empilhamento CRS 2-D, com aplicação a dados sintéticos. O resultado foi uma seção ZO simulada, de alta qualidade ao ser comparada com a seção ZO obtida por modelamento direto, com uma alta razão sinal-ruído, além da estimativa do trio de parâmetros da função tempo de trânsito. Foi realizada uma nálise de sensibilidade para a nova função de tempo de trânsito CRS em relação à curvatura da superfície de medição. Os resultados demonstraram que a função tempo de trânsito CRS é mais sensível nos pontos-médios afastados do ponto central e para grandes afastamentos. As expressões da velocidade NMO apresentadas foram aplicadas para estimar as velocidades e as profundidades dos refletores para um modelo 2-D com topografia suave. Para a inversão destas velocidades e profundidades dos refletores, foi considerado o algoritmo de inversão tipo Dix. A velocidade NMO para uma superfície de medição curva, permite estimar muito melhor estas velocidades e profundidades dos refletores, que as velocidades NMO referidas as superfícies planas. Também apresenta-se uma abordagem do empilhamento CRS no caso 3-D. neste caso a função tempo de trânsito depende de oito parâmetros. São abordadas cinco estratégias de busca destes parâmetros. A combinação de duas destas estratégias (estratégias das três aproximações dos tempos de trânsito e a estratégia das configurações e curvaturas arbitrárias) foi aplicada exitosamente no empilhamento CRS 3-D de dados sintéticos e reais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta Tese apresenta dois estudos aplicados à inversão de dados magnetotelúricos. No primeiro deles, os parâmetros obtidos na inversão são as dimensões da malha de parametrização da subsuperfície, sendo conhecida, a priori, a resistividade de uma heterogeneidade e a do seu meio envolvente; no outro estudo, é abordado o uso de operadores de derivadas de ordem maior do que um com a finalidade de estabilizar o problema inverso. No primeiro estudo, os resultados podem ser considerados satisfatórios somente se a informação sobre as resistividades tem erro menor do que 20%. No segundo estudo, os resultados demonstram que o uso de operadores de ordem maior do que um podem ser mais eficazes do que o uso convencional do operador de primeira derivada, pois além de estabilizarem o problema inverso, esses operadores contribuem para melhorar a resolução das heterogeneidades de resistividade da subsuperfície. Ambos os estudos são inéditos, pois a prática de inversão de dados magnetotelúricos consiste de obter como resultado do problema inverso a resistividade dos prismas de uma malha de parametrização de dimensões fixas, usando como estabilizador o operador de primeira derivada. Os modelos usados nos estudos são bidimensionais e representam uma subsuperfície com uma e duas heterogeneidades de forma prismática envolvidas por ambiente homogêneo. O desempenho das técnicas foi testado com dados sintéticos com e sem ruído gaussiano, bem como dados reais do perfil COPROD2. Durante o trabalho, são, ainda, descritas as técnicas de inversão denominadas creeping e jumping e feita uma comparação e avaliação sobre elas. Mostra-se aqui que, ao contrário do que afirmam muitos pesquisadores, a inclusão de informação a priori sore os parâmetros pode ser feita na técnica do creeping com a mesma facilidade com que é feita na técnica do jumping.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho apresentamos um estudo da aplicação do regularizador “Variação Total” (VT) na inversão de dados geofísicos eletromagnéticos. O regularizador VT reforça a proximidade entre os parâmetros adjacentes, mas, quando a influência de uma descontinuidade é sentida nos dados, este permite mudanças abruptas sobre os parâmetros. Isso faz com que o método seja uma alternativa válida, quando os dados observados usados na inversão provém de um ambiente geológico com uma distribuição suave de condutividade, mas que pode apresentar descontinuidades em lugares como as interfaces entre as camadas geoelétricas, como na margem de uma zona de óleo ou de um corpo de sal, que podem ser zonas muito resistivas no interior de sedimentos condutivos. Quando, devido a baixa resolução nos dados, o método não tem informações o suficiente para identificar a interface, o regularizador variação total reforça a proximidade entre os parâmetros adjacentes fazendo um transição suave entre as condutividades camadas, da mesma forma que é apresentado pela suavidade global. O método de Variação Total permite que modelos menos suaves sejam alcançados porque na norma L1 a medida de desajuste entre os pares de parâmetros adjacentes, dará o mesmo valor se a variação dos parâmetros é suave ou se a variação é abrupta, o que não é o caso se o mesmo desajuste é medido na norma L2, pois em uma distribuição suave a medida do desajuste é menor, sendo assim favorecida pela minimização desta norma. O uso deste regularizador permite uma melhor estimativa do tamanho de um corpo, seja ele resistivo ou condutivo. O trabalho está apresentado na forma de três artigos, cada um descrevendo uma etapa no desenvolvimento do problema da inversão, seguindo uma sequência de complexidade crescente no problema direto. O primeiro artigo neste trabalho é intitulado “Inversão de dados do CSEM marinho 1D de meio estratificado anisotrópico com o regularizador Variação Total”. Este descreve o passo inicial no desenvolvimento do problema: a inversão de dados do CSEM marinho de modelos estratificados 1D com anisotropia na condutividade das camadas. Este problema se presta bem para este desenvolvimento, porque tem solução computacional muito mais rápida do que o 2D, e nele já estão presentes as características principais dos dados do método CSEM marinho, como a largura muito grande da faixa de amplitudes medidas em um levantamento, e a baixa resolução, inerente às baixas frequências empregadas. A anisotropia acrescenta uma dificuldade a mais no problema, por aumentar o nível de ambiguidade nos dados e demandar ainda mais informação do que no caso puramente isotrópico. Os resultados mostram que a aplicação dos vínculos de igualdade do método VT permite a melhor identificação de uma camada alvo resistiva do que a simples aplicação dos vínculos tradicionais de suavidade. Até onde podemos aferir, esta solução se mostra superior a qualquer outra já publicada para este problema. Além de ter sido muito importante para o desenvolvimento de códigos em paralelo. O segundo artigo apresentado aqui, “Inversão de dados Magnetotelúricos com o regularizador Variação Total e o uso da matriz de sensibilidade aproximada”, trata da inversão de dados do método Magnetotelúrico em ambientes 2D. Este problema demanda um esforço computacional muito maior do que o primeiro. Nele, estudamos a aplicação do método dos estados adjuntos para gerar uma boa aproximação para as derivadas necessárias para a construção da matriz de sensibilidade usada na inversão. A construção da matriz de sensibilidade é a etapa que demanda mais tempo no processo de inversão, e o uso do método de estados adjuntos foi capaz de reduzir muito este tempo, gerando derivadas com um bom nível de aproximação. Esta etapa da pesquisa foi fundamental pelo problema direto ser matematicamente e computacionalmente muito mais simples do que o do CSEM marinho 2D. Novamente em comparação com a aplicação do regularizador de suavidade global, o regularizador de Variação Total permitiu, neste problema, uma melhor delimitação das bordas de heterogeneidades bidimensionais. A terceira parte deste trabalho, apresentada no artigo “Inversão de dados do CSEM marinho 2.5D com o regularizador Variação Total e o uso da matriz de sensibilidade aproximada”, apresenta a apliação do método de Variação Total ao problema da inversão de dados CSEM marinho 2.5D. Usamos o método dos estados adjuntos para gerar uma boa aproximação para as derivadas necessárias para a construção da matriz de sensibilidade usada na inversão, acelerando assim o processo de inversão. Para deixar o processo de inversão ainda mais rápido, lançamos mão da programação em paralelo com o uso de topologia. A comparação entre a aplicação do regularizador de suavidade global, e o regularizador de Variação Total permitiu, assim como nos casos anteriores, uma melhor delimitação das bordas de heterogeneidades bidimensionais.