988 resultados para one dimensional


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Uma análise utilizando a série de Taylor é apresentada para se estimar a priori os erros envolvidos na solução numérica da equação de advecção unidimensional com termo fonte, através do Método dos Volumes Finitos em uma malha do tipo uniforme e uma malha não uniforme. Também faz-se um estudo a posteriori para verificar a magnitude do erro de discretização e corroborar os resultados obtidos através da análise a priori. Por meio da técnica de solução manufaturada tem-se uma solução analítica para o problema, a qual facilita a análise dos resultados numéricos encontrados, e estuda-se ainda a influência das funções de interpolação UDS e CDS e do parâmetro u na solução numérica.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Neste trabalho, foi desenvolvido um simulador numérico baseado no método livre de malhas Smoothed Particle Hydrodynamics (SPH) para a resolução de escoamentos de fluidos newtonianos incompressíveis. Diferentemente da maioria das versões existentes deste método, o código numérico faz uso de uma técnica iterativa na determinação do campo de pressões. Este procedimento emprega a forma diferencial de uma equação de estado para um fluido compressível e a equação da continuidade a fim de que a correção da pressão seja determinada. Uma versão paralelizada do simulador numérico foi implementada usando a linguagem de programação C/C++ e a Compute Unified Device Architecture (CUDA) da NVIDIA Corporation. Foram simulados três problemas, o problema unidimensional do escoamento de Couette e os problemas bidimensionais do escoamento no interior de uma Cavidade (Shear Driven Cavity Problem) e da Quebra de Barragem (Dambreak).

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Nesse trabalho, foi desenvolvido um simulador numérico (C/C++) para a resolução de escoamentos de fluidos newtonianos incompressíveis, baseado no método de partículas Lagrangiano, livre de malhas, Smoothed Particle Hydrodynamics (SPH). Tradicionalmente, duas estratégias são utilizadas na determinação do campo de pressões de forma a garantir-se a condição de incompressibilidade do fluido. A primeira delas é a formulação chamada Weak Compressible Smoothed Particle Hydrodynamics (WCSPH), onde uma equação de estado para um fluido quase-incompressível é utilizada na determinação do campo de pressões. A segunda, emprega o Método da Projeção e o campo de pressões é obtido mediante a resolução de uma equação de Poisson. No estudo aqui desenvolvido, propõe-se três métodos iterativos, baseados noMétodo da Projeção, para o cálculo do campo de pressões, Incompressible Smoothed Particle Hydrodynamics (ISPH). A fim de validar os métodos iterativos e o código computacional, foram simulados dois problemas unidimensionais: os escoamentos de Couette entre duas placas planas paralelas infinitas e de Poiseuille em um duto infinito e foram usadas condições de contorno do tipo periódicas e partículas fantasmas. Um problema bidimensional, o escoamento no interior de uma cavidade com a parede superior posta em movimento, também foi considerado. Na resolução deste problema foi utilizado o reposicionamento periódico de partículas e partículas fantasmas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Chronic excessive alcohol intoxications evoke cumulative damage to tissues and organs. We examined prefrontal cortex (Brodmann's area (BA) 9) from 20 human alcoholics and 20 age, gender, and postmortem delay matched control subjects. H & E staining and light microscopy of prefrontal cortex tissue revealed a reduction in the levels of cytoskeleton surrounding the nuclei of cortical and subcortical neurons, and a disruption of subcortical neuron patterning in alcoholic subjects. BA 9 tissue homogenisation and one dimensional polyacrylamide gel electrophoresis (PAGE) proteomics of cytosolic proteins identified dramatic reductions in the protein levels of spectrin beta II, and alpha- and beta-tubulins in alcoholics, and these were validated and quantitated by Western blotting. We detected a significant increase in a-tubulin acetylation in alcoholics, a non-significant increase in isoaspartate protein damage, but a significant increase in protein isoaspartyl methyltransferase protein levels, the enzyme that triggers isoaspartate damage repair in vivo. There was also a significant reduction in proteasome activity in alcoholics. One dimensional PAGE of membrane-enriched fractions detected a reduction in beta-spectrin protein levels, and a significant increase in transmembranous alpha 3 (catalytic) subunit of the Na+, K+-ATPase in alcoholic subjects. However, control subjects retained stable oligomeric forms of a-subunit that were diminished in alcoholics. In alcoholics, significant loss of cytosolic alpha-and beta-tubulins were also seen in caudate nucleus, hippocampus and cerebellum, but to different levels, indicative of brain regional susceptibility to alcohol-related damage. Collectively, these protein changes provide a molecular basis for some of the neuronal and behavioural abnormalities attributed to alcoholics

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo a análise do comportamento dos aterros instrumentados que compõem a obra do Arco Metropolitano do Rio de Janeiro. Os resultados da instrumentação de campo serão discutidos e retroanalisados, juntamente com dados disponíveis na literatura, buscando-se a definição de parâmetros confiáveis, representativos do comportamento da argila compressível da região em estudo. O Arco Metropolitano do Rio de Janeiro é uma rodovia projetada que servirá como ligação entre as 5 principais rodovias que cortam o município do Rio de Janeiro. Dada a magnitude da obra e a ocorrência de significativas espessuras de solos moles em alguns trechos da região, determinados aterros que compõem a rodovia foram instrumentados com placas de recalque e inclinômetros, instalados em diferentes estações de monitoramento, no intuito de avaliar os deslocamentos verticais e horizontais dos aterros durante o processo construtivo. De posse de parâmetros confiáveis, procede-se à simulação numérica do processo construtivo de um dos aterros, a partir do programa PLAXIS, de elementos finitos. Os resultados numéricos são confrontados com a instrumentação de campo (fornecida por placas de recalque) e com os resultados de previsões teóricas (teoria de adensamento unidimensional). Em projetos de aterros sobre solos compressíveis, a instrumentação geotécnica é de grande importância, pois permite acompanhar o desenvolvimento de todo o processo construtivo, e as deformações decorrentes da sobrecarga imposta pelo lançamento de camadas de aterro. A imposição de um carregamento sobre solos de alta compressibilidade e baixa resistência pode acarretar em grandes deformações ao longo do tempo, além de rupturas indesejáveis do solo de fundação. Os resultados comprovaram que a modelagem numérica mostrou-se uma ferramenta adequada para a previsão dos recalques totais e tempos de adensamento. A definição de parâmetros representativos, com base em ensaios executados em amostras de boa qualidade, é o primeiro passo para a previsão coerente da evolução dos recalques com o tempo. A retroanálise do comportamento de aterros sobre solos moles permite a reavaliação das premissas de projeto, uma vez que as limitações das teorias de análise e a dificuldade na seleção de parâmetros, muitas vezes acarretam em estimativas de recalque incoerentes com as observações de campo.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A utilização de treliças para o escoramento de elementos estruturais de concreto armado e aço é considerada uma solução eficaz para o atual sistema de construção de engenharia civil. Uma mudança de atitude no processo de construção, associado com a redução dos custos causou um aumento considerável na utilização de treliças tridimensionais em aço com maior capacidade de carga. Infelizmente, o desenho destes sistemas estruturais baseia-se em cálculos muito simplificados relacionadas com vigas de uma dimensão, com propriedades de inércia constantes. Tal modelagem, muito simplificada, não pode representar adequadamente a resposta real dos modelos estruturais e pode levar a inviabilidade econômica ou mesmo inseguro desenho estrutural. Por outro lado, estas estruturas treliçadas estão relacionadas com modelos de geometria complexa e são desenhados para suportar níveis de cargas muito elevadas. Portanto, este trabalho de investigação propôs modelos de elementos finitos que representam o caráter tridimensional real do sistema de escoramento, avaliando o comportamento estático e dinâmico estrutural com mais confiabilidade e segurança. O modelo computacional proposto, desenvolvido para o sistema estrutural não linear de análise estática e dinâmica, aprovou as habituais técnicas de refinamento de malha presentes em simulações do método de elementos finitos, com base no programa ANSYS [1]. O presente estudo analisou os resultados de análises linear-elástica e não linear geométrica para ações de serviço, físicos e geométricos para as ações finais. Os resultados do presente estudo foram obtidas, com base na análise linear-elástica e não linearidade geométrica e física, e comparados com os fornecidos pela metodologia simplificada tradicional de cálculo e com os limites recomendadas por normas de concepção.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

简要论述了标量散射理论的研究进展做,着重介绍了Beckman的一维标量散射理论和几种典型的多层膜散射模型-非相关表面粗糙度模型、附加表面粗糙度模型和非相关体内不均匀模型,比较了这些模型在中心波长为632.8nm的11层高反膜的散射特性.结果表明,非相关体内的不均匀性引起反射能带边缘散射,反射能带内的散射主要由附加表面粗糙度引起.理想粗糙度对膜系反射带内的散射影响很小,对反射带边缘几乎无影响.预测了标量散射理论的应用领域及前景.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

We show that dynamics in the spin-orbit coupling field simulate the von Neumann measurement of a particle spin. We demonstrate how the measurement influences the spin and coordinate evolution of a particle by comparing two examples of such a procedure. The first example is a simultaneous measurement of spin components, sigma(x) and sigma(y), corresponding to non-commuting operators, which cannot be accurately obtained together at a given time instant due to the Heisenberg uncertainty ratio. By mapping spin dynamics onto a spatial walk, such a procedure determines measurement-time averages of sigma(x) and sigma(y), which can already be precisely evaluated in a single short-time measurement. The other, qualitatively different, example is the spin of a one-dimensional particle in a magnetic field. Here, the measurement outcome depends on the angle between the spin-orbit coupling and magnetic fields. These results can be applied to studies of spin-orbit coupled cold atoms and electrons in solids.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

通过传输矩阵法分析了材料介电常数的变化对于单缺陷结构的磁光多层膜隔离器性能的响,并提出了一种多缺陷结构的磁光多层膜结构.同单缺陷结构相比,多缺陷结构的旋转角的频谱响应带宽有很大增加,对于材料介电常数变化的宽容性得到了一个数量级的提高.同时这种多缺陷的结构对于膜层厚度的变化和入射角度也有很好的宽容性.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O objetivo deste estudo in vivo foi avaliar comparativamente três técnicas de clareamento de dentes polpados quanto ao grau de cor final alcançado, sensibilidade dental e satisfação pessoal de operadores e pacientes. Indivíduos jovens de mesma faixa etária e padrão de higiene bucal foram selecionados e divididos aleatoriamente entre os grupos (G1; n=7) caseiro, com regime de uso de 8 h/dia/4 semanas; (G2; n=7) consultório, com regime de clareamento de 4 sessões semanais de 2 aplicações de 15 min cada e; (G3; n=6) associado, com caseiro e consultório combinados. Para as técnicas caseira e de consultório foram utilizados peróxido de carbamida a 16% (WhitegoldHome/Dentsply) e peróxido de hidrogênio a 35% (Whitegold Office/Dentsply), respectivamente. Os registros de cor foram obtidos por um único operador antes e após o emprego da cada técnica utilizando escala de cores Vita Bleachedguide 3D-Master e máquina fotográfica digital profissional (EOS Rebel XT Canon), com ajustes de iluminação, flash e distância focal padronizados. O nível de clareamento foi avaliado por unidades de mudança de cor (luminosidade) na escala de cores, além do número de tons alcançados nas imagens digitais e mudança de cor no sistema CIE L*a*b* por meio do software ScanWhite. Os dados foram tratados estatisticamente pelos testes não paramétricos de Kruskal Wallis e dos sinais (p≤0,05). Os registros de sensibilidade dental trans e pós operatória e da satisfação pessoal dos operadores e pacientes foram preenchidos individualmente em questionário unidimensional ao final de cada sessão. Foram atribuídos escores para a avaliação final da sensibilidade dental, conforme: 0=ausente; 1=leve; 2=moderada e; 3=severa. Os dados foram tratados estatisticamente pelo teste Kruskal Wallis. As médias das variações de unidades de mudança de cor da escala Vita e do software foram, respectivamente: G1) 4,57 (IC1,34), 27,14 (IC12,03); G2) 2,86 (IC0,99), 21,29 (IC14,27); G3) 4 (IC1,82), 25,33 (IC10,70). Na comparação entre os métodos de avaliação de cor, os p-valores do teste dos sinais foram 0,453, 0,453 e 0,687 para os grupos 1, 2 e 3, respectivamente. As médias da variação total de cor (∆E) foram, respectivamente: G1) 8,79(IC4,18), G2) 7,10(IC3,53) e G3) 9,74 (IC4,07). Não foi determinada diferença estatisticamente significante entre os grupos. Os postos médios do nível de sensibilidade foram: G1 = 9,64; G2 = 11,58; e G3 = 10,43, e o p-valor = 0,807. Não houve diferença estatisticamente significante entre grupos. Conclui-se que as técnicas caseiro, consultório e associada foram igualmente eficazes quanto ao nível de cor final, de acordo com os métodos objetivos e subjetivos utilizados. O nível de sensibilidade dental foi o mesmo independentemente da técnica utilizada. Todos os indivíduos registraram satisfação ao final do clareamento.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O processo de recuperação secundária de petróleo é comumente realizado com a injeção de água ou gás no reservatório a fim de manter a pressão necessária para sua extração. Para que o investimento seja viável, os gastos com a extração precisam ser menores do que o retorno financeiro obtido com a produção de petróleo. Objetivando-se estudar possíveis cenários para o processo de exploração, costuma-se utilizar simulações dos processos de extração. As equações que modelam esse processo de recuperação são de caráter hiperbólico e não lineares, as quais podem ser interpretadas como Leis de Conservação, cujas soluções são complexas por suas naturezas descontínuas. Essas descontinuidades ou saltos são conhecidas como ondas de choque. Neste trabalho foi abordada uma análise matemática para os fenômenos oriundos de leis de conservação, para em seguida utilizá-la no entendimento do referido problema. Foram estudadas soluções fracas que, fisicamente, podem ser interpretadas como ondas de choque ou rarefação, então, para que fossem distinguidas as fisicamente admissíveis, foi considerado o princípio de entropia, nas suas diversas formas. As simulações foram realizadas nos âmbitos dos escoamentos bifásicos e trifásicos, em que os fluidos são imiscíveis e os efeitos gravitacionais e difusivos, devido à pressão capilar, foram desprezados. Inicialmente, foi feito um estudo comparativo de resoluções numéricas na captura de ondas de choque em escoamento bifásico água-óleo. Neste estudo destacam-se o método Composto LWLF-k, o esquema NonStandard e a introdução da nova função de renormalização para o esquema NonStandard, onde obteve resultados satisfatórios, principalmente em regiões onde a viscosidade do óleo é muito maior do que a viscosidade da água. No escoamento bidimensional, um novo método é proposto, partindo de uma generalização do esquema NonStandard unidimensional. Por fim, é feita uma adaptação dos métodos LWLF-4 e NonStandard para a simulação em escoamentos trifásicos em domínios unidimensional. O esquema NonStandard foi considerado mais eficiente nos problemas abordados, uma vez que sua versão bidimensional mostrou-se satisfatória na captura de ondas de choque em escoamentos bifásicos em meios porosos.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta tese apresenta um estudo sobre modelagem computacional onde são aplicadas meta-heurísticas de otimização na solução de problemas inversos de transferência radiativa em meios unidimensionais com albedo dependente da variável óptica, e meios unidimensionais de duas camadas onde o problema inverso é tratado como um problema de otimização. O trabalho aplica uma meta-heurística baseada em comportamentos da natureza conhecida como algoritmo dos vagalumes. Inicialmente, foram feitos estudos comparativos de desempenho com dois outros algoritmos estocásticos clássicos. Os resultados encontrados indicaram que a escolha do algoritmo dos vagalumes era apropriada. Em seguida, foram propostas outras estratégias que foram inseridas no algoritmo dos vagalumes canônico. Foi proposto um caso onde se testou e investigou todas as potenciais estratégias. As que apresentaram os melhores resultados foram, então, testadas em mais dois casos distintos. Todos os três casos testados foram em um ambiente de uma camada, com albedo de espalhamento dependente da posição espacial. As estratégias que apresentaram os resultados mais competitivos foram testadas em um meio de duas camadas. Para este novo cenário foram propostos cinco novos casos de testes. Os resultados obtidos, pelas novas variantes do algoritmo dos vagalumes, foram criticamente analisados.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta pesquisa consiste na solução do problema inverso de transferência radiativa para um meio participante (emissor, absorvedor e/ou espalhador) homogêneo unidimensional em uma camada, usando-se a combinação de rede neural artificial (RNA) com técnicas de otimização. A saída da RNA, devidamente treinada, apresenta os valores das propriedades radiativas [ω, τ0, ρ1 e ρ2] que são otimizadas através das seguintes técnicas: Particle Collision Algorithm (PCA), Algoritmos Genéticos (AG), Greedy Randomized Adaptive Search Procedure (GRASP) e Busca Tabu (BT). Os dados usados no treinamento da RNA são sintéticos, gerados através do problema direto sem a introdução de ruído. Os resultados obtidos unicamente pela RNA, apresentam um erro médio percentual menor que 1,64%, seria satisfatório, todavia para o tratamento usando-se as quatro técnicas de otimização citadas anteriormente, os resultados tornaram-se ainda melhores com erros percentuais menores que 0,04%, especialmente quando a otimização é feita por AG.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta tese busca compreender o que os rituais funerários contemporâneos revelam sobre as maneiras com as quais as pessoas têm lidado com a morte e o morrer na atualidade. Desse eixo central se ramificam reflexões sobre a relação dos homens com o tempo, com o envelhecimento e com a finitude. Evidenciando que os modos atuais de lidar com a morte e o morrer envolvem flagrantes processos de mercantilização, patologização, medicalização e espetacularização. O crescente uso de serviços funerários de tanatoestética apontam não somente técnicas de maquiagem dos mortos, mas também estratégias de maquiagem da morte. O investimento financeiro, antes direcionado às preocupações transcendentes com o futuro da alma do morto, se reverte em intervenções físicas no corpo morto, de maneira que ele não emita sinal algum da morte que o tomou e proteja os sobreviventes do contato com a finitude. Essa dissimulação é sinalizada pela redução progressiva do espaço que a sociedade contemporânea tem destinado ao luto e ao sofrimento, categorias com cada vez mais frequência equiparadas a condições patológicas. Utilizando metodologia qualitativa, com pesquisa de campo realizada tanto no Brasil como em Portugal, durante período de doutorado sanduíche no exterior, observou-se um acentuado estreitamento entre as realidades morte e consumo. Indicando uma transposição da lógica comercial de mercado às práticas funerárias tradicionais. Assim, funções simbólicas dos rituais fúnebres vem sendo modificadas e regidas pela lógica do consumo, apresentado na atualidade como alternativa unidimensional para a imperativa vivência initerrupta do prazer e da felicidade. Constatou-se que - apesar da crescente popularização de discussões sobre o tema morte no meio acadêmico, na área da saúde e na mídia - não há aceno de ruptura no seu enquadramento como tabu. Apenas é permitido socialmente que ela ocupe locais determinados: o lugar de espetáculo, de produto, da técnica, da banalização ou mesmo do humor publicitário. As observações e as reflexões realizadas em todo o processo de construção desta tese nos inclinam a considerar que continua vedado o aprofundamento de questões ligadas à expressão de sentimentos de dor e de pesar diante das perdas. Assim como se acentuam os processos de patologização do luto e de distanciamento das demandas existênciais promovidas pela consciência da própria finitude e da passagem do tempo; do tempo de vida de cada um