7 resultados para Free Boundary Value Problem

em Universidade Federal do Pará


Relevância:

100.00% 100.00%

Publicador:

Resumo:

ABSTRACT: In this work we are concerned with the existence and uniqueness of T -periodic weak solutions for an initial-boundary value problem associated with nonlinear telegraph equations typein a domain. Our arguments rely on elliptic regularization technics, tools from classical functional analysis as well as basic results from theory of monotone operators.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Foi estudado a viabilidade de aplicação do arranjo coplanar de bobinas nas sondas de perfilagem em poço por indução eletromagnética. Paralelamente foram geradas as respostas do convencional arranjo coaxial, que é o amplamente utilizado nas sondas comerciais, com o propósito de elaborar uma análise comparativa. Através da solução analítica (meios homogêneos) e semi-analítica (meios heterogêneos) foram geradas inicialmente as respostas para modelos mais simples, tais como os do (1) meio homogêneo, isotrópico e ilimitado; (2) uma casca cilíndrica simulando a frente de invasão; (3) duas cascas cilíndricas para simular o efeito annulus; (4) uma interface plana e dois semi-espaços simulando o contato entre duas camadas espessas e (5) uma camada plano-horizontal e dois semi-espaços iguais. Apesar da simplicidade destes modelos, eles permitem uma análise detalhada dos efeitos que alguns parâmetros geoelétricos têm sobre as respostas. Aí então, aplicando ainda as condições de contorno nas fronteiras (Sommerfeld Boundary Value Problem), obtivemos as soluções semi-analíticas que nos permitiram simular as respostas em modelos relativamente mais complexos, tais como (1) zonas de transição gradacional nas frentes de invasão; (2) seqüências de camadas plano-paralelas horizontais e inclinadas; (3) seqüências laminadas que permitem simular meios anisotrópicos e (4) passagem gradacional entre duas camadas espessas. Concluimos que o arranjo coplanar de bobinas pode ser uma ferramenta auxiliar na (1) demarcação das interfaces de camadas espessas; (2) posicionamento dos reservatórios de pequenas espessuras; (3) avaliação de perfis de invasão e (4) localizar variações de condutividade azimutalmente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A velocidade de transporte é um dos mais importantes parâmetros no transporte pneumático de sólidos. O êxito no transporte de materiais particulados depende da predição ou da determinação da velocidade mínima de transporte. Uma velocidade acima daquela necessária ao transporte estável das partículas sólidas conduz a um grande consumo de energia devido ao aumento na perda de pressão do sistema, degradação dos sólidos e abrasão dos sólidos e da tubulação. Já uma velocidade abaixo desse valor limite certamente resultará na deposição das partículas sólidas para o fundo da tubulação e conseqüentemente o entupimento desta. Neste trabalho, uma técnica para medir a velocidade mínima de captura de partículas sólidas em uma tubulação na direção horizontal em um sistema de Transporte Pneumático é desenvolvida. Ela baseia-se em observações visuais do comportamento das partículas ao ocorrer a captura, em medidas da velocidade de operação do gás e da massa das partículas capturadas. É realizada ainda a análise qualitativa de alguns parâmetros que influenciam na velocidade de captura das partículas, permitindo uma maior compreensão dos fenômenos envolvidos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O HPV (Papilomavírus humano) foi apontado pela OMS (Organização Mundial de Saúde - WHO) como principal fator de risco para o desenvolvimento do câncer de colo uterino, tornando-se assim um importante e gravíssimo problema de saúde pública, especialmente nos países subdesenvolvidos ou em desenvolvimento. A precocidade das atividades sexuais, múltiplos parceiros e sexo casual, o tabagismo, a imunossupressão (por exemplo, na população de pacientes aidéticos), gravidez, doenças sexualmente transmissíveis prévias como herpes e clamídia, além do não cumprimento das medidas já adotadas como prevenção de Doenças Sexualmente Transmissíveis (DST), como por exemplo, o simples uso de preservativos, está reconhecidamente associado à incidência da infecção por HPV. Essa pesquisa teve como objetivo avaliar o desempenho diagnóstico das metodologias de citologia convencional (Exame de Papanicolau) em relação à citologia em base líquida, além de determinar a prevalência dos genótipos 16 e 18 do HPV em mulheres sem efeito citopático compatível com HPV e relacionar a presença de quadros inflamatórios, associados ou não ao HPV, com dados epidemiológicos como idade, escolaridade, condição sociocultural de mulheres provenientes do município de Barcarena – Pará – Brasil. Para tanto, participaram deste estudo, voluntariamente, 50 mulheres atendidas na Unidade de Saúde de Barcarena – Pará, através de campanha para coleta de Exame de Papanicolau como método de prevenção de câncer do colo do útero. Estas mulheres receberam informações referentes a todos os procedimentos realizados pelo corpo de saúde deste estudo e aos resultados desta pesquisa e somente após as voluntárias terem assinado o Termo de Consentimento Livre e Esclarecido, as mesmas foram incluídas para as coletas de amostras. As análises e os resultados dos testes de citologia de base líquida e convencional foram realizados segundo a Classificação de Bethesda e revisados cegamente por dois citopatologistas. Para a análise estatístca foi utilizado o teste exato de Fisher e o "Screening Test" visando determinar a especificidade/ sensibilidade dos métodos, considerando significativo o valor de p ≤ 0,05. Como resultado, observamos que o uso da citologia de base líquida tem demonstrado uma série de vantagens em relação à citologia convencional. No diagnóstico molecular (PCR) foram observadas ocorrências de HPV dos tipos 16 e 18 em 10% das mulheres atendidas. Dentre os casos que apresentaram PCR positivo para os tipos 16 ou 16/18 a maioria das mulheres tinham 27,4 anos de idade em média; com maior escolaridade; que exercem atividades domésticas e rurais; e com ocorrências de co-infecção por agentes infecciosos causadores de outras doenças sexualmente transmissíveis. Os resultados obtidos neste estudo reforçam a importância da manutenção de campanhas gratuitas de prevenção do câncer de colo do útero como uma medida preventiva no combate desta doença, principalmente no Estado do Pará onde, provavelmente, o perfil epidemiológico da doença está associado às grandes distâncias que as mulheres de comunidades ribeirinhas têm que percorrer para realizar este exame de forma gratuita; ao tipo de atividade econômica da região; ao preconceito local ainda existente com o exame; e ao grau de dificuldade de implementação de ações efetivas de retorno das pacientes às consultas médicas após a obtenção do resultado do exame e mesmo o encaminhamento para diagnóstico molecular dos casos positivos para lesões do tipo ASC-H e NIC I, II e III.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A simulação numérica do escoamento de ar em ambientes internos é na atualidade o método mais apropriado para análise de conforto térmico em ambientes internos. O escoamento de ar nesses ambientes configura-se como um escoamento complexo, pois, em regra geral, é uma combinação de escoamentos cisalhantes livres (jatos) e cisalhantes de parede, além disso, esses escoamentos são governados por forças de inércia e forças de empuxo, caracterizando-o como de convecção mista. A combinação desses mecanismos cria um escoamento com características complexas, como zonas de recirculação, vórtices, descolamento e recolamento de camada-limite dentre outras. Portanto, a precisão da solução estará diretamente ligada, principalmente, na habilidade do modelo de turbulência adotado de reproduzir as características turbulentas do escoamento de ar e da transferência térmica. O objetivo principal do presente trabalho foi a simulação computacional do ambiente térmico interno do galpão que abriga os geradores e motores Wärtzilä da Usina Termelétrica Santana no estado do Amapá. A formulação matemática baseada na solução das equações gerais de conservação inclui uma análise dos principais modelos de turbulência aplicados ao escoamento de ar em ambientes internos, assim como os processos de transferência de calor associados. Na modelagem numérica o método de volumes finitos é usado na discretização das equações de conservação, através do código comercial Fluent-Airpak, que foi usado nas simulações computacionais para a análise dos campos de velocidade e temperatura do ar. A utilização correta do programa computacional foi testada e validada para o problema através da simulação precisa de casos retirados da literatura. Os resultados numéricos foram comparados a dados obtidos de medições experimentais realizados no galpão e apresentou boa concordância, considerando a complexidade do problema simulado, o objetivo da simulação em face da diminuição da temperatura no interior do galpão e, também, em função das limitações encontradas quando da tomada das medições experimentais. Além disso, foram feitas simulações de estratégias de melhoria do ambiente térmico da Usina, baseadas na realidade levantada e nos resultados da simulação numérica. Finalmente, foram realizadas simulações do protótipo de solução proposto para a diminuição da temperatura interna do galpão o que possibilitará um aumento, na faixa de 20 a 30%, do tempo de permanência no interior do galpão.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A maioria dos perfis de poço utilizados nas avaliações petrofísicas de reservatórios possuem uma resolução vertical na ordem de um metro. Isto cria um problema quando as espessuras típicas das camadas são inferiores a um metro, uma vez que não há correção das leituras. Os perfis de alta resolução vertical como da ferramenta de propagação eletromagnética (EPT, Schlumberger), o dipmeter (SHDT, Schlumberger) ou das ferramentas de varredura acústica ou elétrica possuem uma resolução vertical da ordem de centimetros, mas apresentam uma limitada aplicação para as avaliações petrofísicas. Nós apresentamos um método para a deconvolução de um perfil de baixa resolução vertical que utiliza informações de um perfil de alta resolução vertical para identificar uma nítida interface entre camadas que apresentam valores da propriedade petrofísica contrastante, mas localmente constante em ambos os lados. A partir desse intervalo de controle, nós determinamos a função resposta vertical da ferramenta sob as condições atuais do poço com base no teorema da convolução. Utilizamos várias interfaces de modo a obter valores mais representativos da resposta da ferramenta. O perfil de baixa resolução é então deconvoluido utilizando a transformada discreta de Fourier (FFT) sobre todo o intervalo de interesse. É importante destacar que a invasão do filtrado da lama e a presença do bolo de lama não produzem efeitos danosos sobre o método, que foi aplicado a perfis sintéticos e a dados de campo, onde a aplicação de filtros com um correto ajuste de profundidade, bem como a própria escolha do intervalo de controle, antes da deconvolução, são de extrema importância para o sucesso do método.