9 resultados para special linear system
em Universidade Federal do Pará
Resumo:
Este trabalho apresenta uma introdução sobre a história da neonatologia, a conceituação e a modelagem matemática do sistema térmico de uma incubadora neonatal, contendo a relação da mesma com um recém-nascido quanto a trocas térmicas, a partir da primeira lei da termodinâmica. É apresentado o método que foi utilizado para a linearização (Séries de Taylor) e os pontos de operação calculados para o sistema linear obtido no formato de espaço de estados, e a partir deste foi obtida uma representação em função de transferência. A partir da modelagem matemática do sistema, foi realizado um teste em malha aberta para verificar as características do mesmo, como estabilidade, constante de tempo e convergência para um valor final desejado, e como o sistema real opera em malha fechada, foi também realizado um teste com o sistema nesta configuração contendo um ganho unitário de malha. O comportamento do sistema não linear foi comparado ao do sistema linearizado através de suas curvas de resposta temporal a uma entrada degrau para a verificação da validade da representação linear, e após a sua validação, diagramas de bode foram gerados para diferentes parâmetros do modelo, para observar-se o efeito desta variação no comportamento dinâmico da planta, e foi percebido que o comportamento do modelo não é alterado de forma substancial para a variação dentro das faixas verificadas. Um controlador proporcional e integral (PI) foi então projetado para a eliminação do erro de regime permanente presente resposta temporal do sistema.. Testes sob diversas condições de operação foram realizados no sistema linear assim como as curvas de variação de temperatura foram obtidas com o controlador aplicado no modelo não linear, sendo os resultados considerados satisfatórios para este tipo de aplicação. Este trabalho foi realizado com o auxílio da ferramenta computacional Simulink do software Matalb®.
Resumo:
O fenômeno da turbulência está presente na maioria dos escoamentos observados na indústria e na natureza. Muitas são as considerações a respeito das dificuldades relacionadas à caracterização dos escoamentos turbulentos. Uma das muitas questões trata do procedimento de análise do problema através da descrição estatística dos campos por grandezas “médias”, o que leva ao problema de fechamento e à modelagem do tensor de Reynolds, normalmente com modelos baseados no conceito de viscosidade turbulenta. Os modelos de turbulência já existentes apresentam algumas deficiências na previsão do escoamento, além de outras limitações, o que justifica a busca por novas abordagens para o tratamento da turbulência. Neste trabalho, o problema de fechamento é tratado segundo a modelagem turbulenta baseada no conceito de viscosidade turbulenta. Um novo modelo de turbulência é proposto, que admite a existência de vórtices imersos no escoamento e aplica conceitos e definições relacionados à identificação de vórtices, com o uso do critério de identificação Q , que caracteriza a região do escoamento ocupada pelo vórtice. Propõe-se a investigação da aplicabilidade do critério Q em conjunto com o modelo k − ε , para o desenvolvimento de um novo modelo de turbulência chamado k − ε −Q . Validou-se a aplicabilidade do modelo através de um código numérico computacional para tratamento de escoamentos turbulentos. A solução numérica foi obtida através da discretização do domínio fluido, utilizando o método de volumes finitos e o método multigrid foi utilizado para resolver o sistema linear resultante. Como verificação, foi utilizado este modelo de turbulência para simular o escoamento em uma cavidade quadrada com tampa deslizante e o escoamento turbulento sobre um degrau. Os resultados obtidos foram confrontados com dados experimentais e demonstraram que o modelo aqui proposto se apresenta mais eficiente que o clássico modelo k − ε , no tratamento da turbulência nesses dois problemas clássicos.
Resumo:
As medidas de amplitude, polarização e vagarosidade contem informações sobre o meio onde a propagação de onda ocorre. Esta tese investiga esses dados com objetivo de estimar as propriedades elásticas deste meio. Coeficientes de reflexão podem ser estimados das amplitudes dos dados e dependem de forma não linear dos contrastes dos parâmetros elásticos e do contraste de densidade entre os meios separados por uma interface. Quando o contraste de impedância é fraco, as aproximações lineares para a refletividade qP são mais convenientes para inversão da densidade e dos parâmetros elásticos usando as análises de amplitude versus ângulo de incidência (AVO) e amplitude versus a direção do plano de incidência (AVD). Escrevendo as equações de Zoepprittz de forma separada nos permite escrever uma solução destas equações em termos das matrizes de impedância e polarização. Usando esta solução são determinadas aproximações lineares para a refletividade da onda qP considerando fraco contraste de impedância, fraca anisotropia mas com classe de simetria de arbitrária. As linearizações são avaliadas para diferentes geometrias de aquisição e várias escolhas do meio de referência. Estas aproximações apresentam bom desempenho comparado com o valor exato do coeficiente de reflexão da onda qP e de suas ondas convertidas para incidências de até 30° e meios que obedecem à hipótese de fraca anisotropia. Um conjunto de fraturas orientado é representado efetivamente por um meio transversalmente isotrópico (TI), as aproximações lineares da refletividade da onda qP podem ser usadas para estimar a orientação de fratura. Partindo deste pressuposto este problema consiste em estimar a orientação do eixo de simetria a partir de dados de refletividade de onda qP. Este trabalho mostra que são necessários múltiplos azimutes e múltiplas incidências para se obter uma estimativa estável. Também é mostrado que apenas os coeficientes das ondas qS e qT são sensíveis ao mergulho da fratura. Foi investigada a estimativa da anisotropia local através de dados de VSP multiazimutal dos vetores de polarização e vagarosidade. Foram usadas medidas da componente vertical do vetor de vagarosidade e o vetor de polarização de ondas qP diretas e refletidas. O esquema de inversão é validado através de exemplos sintéticos considerando diferentes escolhas do vetor normal à frente de onda no meio de referência, meios de referências e geometria de aquisição. Esta análise mostra que somente um subgrupo dos parâmetros elástico pode ser estimado. Uma importante aplicação desta metodologia é o seu potencial para a determinação de classes de anisotropia. A aplicação desta metodologia aos dados do mar de Java mostra que os modelos isotrópicos e TIV são inadequados para o ajuste desses dados.
Resumo:
O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1.
Resumo:
Dois dos principais objetivos da interpretação petrofísica de perfis são a determinação dos limites entre as camadas geológicas e o contato entre fluidos. Para isto, o perfil de indução possui algumas importantes propriedades: É sensível ao tipo de fluido e a distribuição do mesmo no espaço poroso; e o seu registro pode ser modelado com precisão satisfatória como sendo uma convolução entre a condutividade da formação e a função resposta da ferramenta. A primeira propriedade assegura uma boa caracterização dos reservatórios e, ao mesmo tempo, evidencia os contatos entre fluidos, o que permite um zoneamento básico do perfil de poço. A segunda propriedade decorre da relação quasi-linear entre o perfil de indução e a condutividade da formação, o que torna possível o uso da teoria dos sistemas lineares e, particularmente, o desenho de filtros digitais adaptados à deconvolução do sinal original. A idéia neste trabalho é produzir um algoritmo capaz de identificar os contatos entre as camadas atravessadas pelo poço, a partir da condutividade aparente lida pelo perfil de indução. Para simplificar o problema, o modelo de formação assume uma distribuição plano-paralela de camadas homogêneas. Este modelo corresponde a um perfil retangular para condutividade da formação. Usando o perfil de entrada digitalizado, os pontos de inflexão são obtidos numericamente a partir dos extremos da primeira derivada. Isto gera uma primeira aproximação do perfil real da formação. Este perfil estimado é então convolvido com a função resposta da ferramenta gerando um perfil de condutividade aparente. Uma função custo de mínimos quadrados condicionada é definida em termos da diferença entre a condutividade aparente medida e a estimada. A minimização da função custo fornece a condutividade das camadas. O problema de otimização para encontrar o melhor perfil retangular para os dados de indução é linear nas amplitudes (condutividades das camadas), mas uma estimativa não linear para os contatos entre as camadas. Neste caso as amplitudes são estimadas de forma linear pelos mínimos quadrados mantendo-se fixos os contatos. Em um segundo passo mantem-se fixas as amplitudes e são calculadas pequenas mudanças nos limites entre as camadas usando uma aproximação linearizada. Este processo é interativo obtendo sucessivos refinamentos até que um critério de convergência seja satisfeito. O algoritmo é aplicado em dados sintéticos e reais demonstrando a robustez do método.
Resumo:
Os efeitos Delaware e Groningen são dois tipos de anomalia que afetam ferramentas de eletrodos para perfilagem de resistividade. Ambos os efeitos ocorrem quando há uma camada muito resistiva, como anidrita ou halita, acima do(s) reservatório(s), produzindo um gradiente de resistividade muito similar ao produzido por um contato óleo-água. Os erros de interpretação produzidos têm ocasionado prejuízos consideráveis à indústria de petróleo. A PETROBRÁS, em particular, tem enfrentado problemas ocasionados pelo efeito Groningen sobre perfis obtidos em bacias paleozóicas da região norte do Brasil. Neste trabalho adaptamos, com avanços, uma metodologia desenvolvida por LOVELL (1990), baseada na equação de Helmholtz para HΦ, para modelagem dos efeitos Delaware e Groningen. Solucionamos esta equação por elementos finitos triangulares e retangulares. O sistema linear gerado pelo método de elementos finitos é resolvido por gradiente bi-conjugado pré-condicionado, sendo este pré-condicionador obtido por decomposição LU (Low Up) da matriz de stiffness. As voltagens são calculadas por um algoritmo, mais preciso, recentemente desenvolvido. Os perfis são gerados por um novo algoritmo envolvendo uma sucessiva troca de resistividade de subdomínios. Este procedimento permite obter cada nova matriz de stiffness a partir da anterior pelo cálculo, muito mais rápido, da variação dessa matriz. Este método permite ainda, acelerar a solução iterativa pelo uso da solução na posição anterior da ferramenta. Finalmente geramos perfis sintéticos afetados por cada um dos efeitos para um modelo da ferramenta Dual Laterolog.
Resumo:
Apresentamos um novo método de inversão linear bidimensional de dados gravimétricos produzidos por bacias sedimentares com relevo do embasamento descontínuo. O método desenvolvido utiliza um modelo interpretativo formado por um conjunto de fitas horizontais bidimensionais justapostas cujas espessuras são os parâmetros a serem estimados. O contraste de densidade entre o embasamento e os sedimentos é presumido constante e conhecido. As estimativas das espessuras foram estabilizadas com o funcional da Variação Total (VT) que permite soluções apresentando descontinuidades locais no relevo do embasamento. As estimativas do relevo são obtidas através da resolução de um sistema de equações lineares, resolvido na norma L1. Como métodos lineares subestimam as estimativas de profundidade do embasamento de bacias maiores que cerca de 500 m, amplificamos as estimativas de profundidade através da modificação da matriz associada ao modelo interpretativo de fitas. As estimativas obtidas através deste procedimento são em geral ligeiramente superestimadas. Desse modo, elas são corrigidas através de uma correção definida pela expressão da placa Bouguer. Testes em dados sintéticos e reais produziram resultados comparáveis aos produzidos pelo método não linear, mas exigiram menor tempo computacional. A razão R entre os tempos exigidos pelo método não linear e o método proposto cresce com o número de observações e parâmetros. Por exemplo, para 60 observações e 60 parâmetros, R é igual a 4, enquanto para 2500 observações e 2500 parâmetros R cresce para 16,8. O método proposto e o método de inversão não linear foram aplicados também em dados reais do Steptoe Valley, Nevada, Estados Unidos, e da ponte do POEMA, no Campus do Guamá em Belém, produzindo soluções similares às obtidas com o método não linear exigindo menor tempo computacional.
Resumo:
A implementação convencional do método de migração por diferenças finitas 3D, usa a técnica de splitting inline e crossline para melhorar a eficiência computacional deste algoritmo. Esta abordagem torna o algoritmo eficiente computacionalmente, porém cria anisotropia numérica. Esta anisotropia numérica por sua vez, pode levar a falsos posicionamentos de refletores inclinados, especialmente refletores com grandes ângulos de mergulho. Neste trabalho, como objetivo de evitar o surgimento da anisotropia numérica, implementamos o operador de extrapolação do campo de onda para baixo sem usar a técnica splitting inline e crossline no domínio frequência-espaço via método de diferenças finitas implícito, usando a aproximação de Padé complexa. Comparamos a performance do algoritmo iterativo Bi-gradiente conjugado estabilizado (Bi-CGSTAB) com o multifrontal massively parallel solver (MUMPS) para resolver o sistema linear oriundo do método de migração por diferenças finitas. Verifica-se que usando a expansão de Padé complexa ao invés da expansão de Padé real, o algoritmo iterativo Bi-CGSTAB fica mais eficientes computacionalmente, ou seja, a expansão de Padé complexa atua como um precondicionador para este algoritmo iterativo. Como consequência, o algoritmo iterativo Bi-CGSTAB é bem mais eficiente computacionalmente que o MUMPS para resolver o sistema linear quando usado apenas um termo da expansão de Padé complexa. Para aproximações de grandes ângulos, métodos diretos são necessários. Para validar e avaliar as propriedades desses algoritmos de migração, usamos o modelo de sal SEG/EAGE para calcular a sua resposta ao impulso.
Resumo:
Implementações dos métodos de migração diferença finita e Fourier (FFD) usam fatoração direcional para acelerar a performance e economizar custo computacional. Entretanto essa técnica introduz anisotropia numérica que podem erroneamente posicionar os refletores em mergulho ao longo das direções em que o não foi aplicado a fatoração no operador de migração. Implementamos a migração FFD 3D, sem usar a técnica do fatoração direcional, no domínio da frequência usando aproximação de Padé complexa. Essa aproximação elimina a anisotropia numérica ao preço de maior custo computacional buscando a solução do campo de onda para um sistema linear de banda larga. Experimentos numéricos, tanto no modelo homogêneo e heterogêneo, mostram que a técnica da fatoração direcional produz notáveis erros de posicionamento dos refletores em meios com forte variação lateral de velocidade. Comparamos a performance de resolução do algoritmo de FFD usando o método iterativo gradiente biconjugado estabilizado (BICGSTAB) e o multifrontal massively parallel direct solver (MUMPS). Mostrando que a aproximação de Padé complexa é um eficiente precondicionador para o BICGSTAB, reduzindo o número de iterações em relação a aproximação de Padé real. O método iterativo BICGSTAB é mais eficiente que o método direto MUMPS, quando usamos apenas um termo da expansão de Padé complexa. Para maior ângulo de abertura do operador, mais termos da série são requeridos no operador de migração, e neste caso, a performance do método direto é mais eficiente. A validação do algoritmo e as propriedades da evolução computacional foram avaliadas para a resposta ao impulso do modelo de sal SEG/EAGE.