20 resultados para one-dimensional monatomic chain

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Desde a descoberta do estado quasicristalino por Daniel Shechtman et al. em 1984 e da fabricação por Roberto Merlin et al. de uma superrede artificial de GaAs/ AlAs em 1985 com características da sequência de Fibonacci, um grande número de trabalhos teóricos e experimentais tem relatado uma variedade de propriedades interessantes no comportamento de sistemas aperiódicos. Do ponto de vista teórico, é bem sabido que a cadeia de Fibonacci em uma dimensão se constitui em um protótipo de sucesso para a descrição do estado quasicristalino de um sólido. Dependendo da regra de inflação, diferentes tipos de estruturas aperiódicas podem ser obtidas. Esta diversidade originou as chamadas regras metálicas e devido à possibilidade de tratamento analítico rigoroso este modelo tem sido amplamente estudado. Neste trabalho, propriedades de localização em uma dimensão são analisadas considerando-se um conjunto de regras metálicas e o modelo de ligações fortes de banda única. Considerando-se o Hamiltoniano de ligações fortes com um orbital por sítio obtemos um conjunto de transformações relativas aos parâmetros de dizimação, o que nos permitiu calcular as densidades de estados (DOS) para todas as configurações estudadas. O estudo detalhado da densidade de estados integrada (IDOS) para estes casos, mostra o surgimento de plateaux na curva do número de ocupação explicitando o aparecimento da chamada escada do diabo" e também o caráter fractal destas estruturas. Estudando o comportamento da variação da energia em função da variação da energia de hopping, construímos padrões do tipo borboletas de Hofstadter, que simulam o efeito de um campo magnético atuando sobre o sistema. A natureza eletrônica dos auto estados é analisada a partir do expoente de Lyapunov (γ), que está relacionado com a evolução da função de onda eletrônica ao longo da cadeia unidimensional. O expoente de Lyapunov está relacionado com o inverso do comprimento de localização (ξ= 1 /γ), sendo nulo para os estados estendidos e positivo para estados localizados. Isto define claramente as posições dos principais gaps de energia do sistema. Desta forma, foi possível analisar o comportamento autossimilar de cadeias com diferentes regras de formação. Analisando-se o espectro de energia em função do número de geração de cadeias que seguem as regras de ouro e prata foi feito, obtemos conjuntos do tipo-Cantor, que nos permitiu estudar o perfil do calor específico de uma cadeia e Fibonacci unidimensional para diversas gerações

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho apresenta um estudo teórico e numérico sobre os erros que ocorrem nos cálculos de gradientes em malhas não estruturadas constituídas pelo diagrama de Voronoi, malhas estas, formadas também pela triangulação de Delaunay. As malhas adotadas, no trabalho, foram as malhas cartesianas e as malhas triangulares, esta última é gerada pela divisão de um quadrado em dois ou quatro triângulos iguais. Para tal análise, adotamos a escolha de três metodologias distintas para o cálculo dos gradientes: método de Green Gauss, método do Mínimo Resíduo Quadrático e método da Média do Gradiente Projetado Corrigido. O texto se baseia em dois enfoques principais: mostrar que as equações de erros dadas pelos gradientes podem ser semelhantes, porém com sinais opostos, para pontos de cálculos em volumes vizinhos e que a ordem do erro das equações analíticas pode ser melhorada em malhas uniformes quando comparada as não uniformes, nos casos unidimensionais, e quando analisada na face de tais volumes vizinhos nos casos bidimensionais.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Os métodos numéricos convencionais, baseados em malhas, têm sido amplamente aplicados na resolução de problemas da Dinâmica dos Fluidos Computacional. Entretanto, em problemas de escoamento de fluidos que envolvem superfícies livres, grandes explosões, grandes deformações, descontinuidades, ondas de choque etc., estes métodos podem apresentar algumas dificuldades práticas quando da resolução destes problemas. Como uma alternativa viável, existem os métodos de partículas livre de malhas. Neste trabalho é feita uma introdução ao método Lagrangeano de partículas, livre de malhas, Smoothed Particle Hydrodynamics (SPH) voltado para a simulação numérica de escoamentos de fluidos newtonianos compressíveis e quase-incompressíveis. Dois códigos numéricos foram desenvolvidos, uma versão serial e outra em paralelo, empregando a linguagem de programação C/C++ e a Compute Unified Device Architecture (CUDA), que possibilita o processamento em paralelo empregando os núcleos das Graphics Processing Units (GPUs) das placas de vídeo da NVIDIA Corporation. Os resultados numéricos foram validados e a eficiência computacional avaliada considerandose a resolução dos problemas unidimensionais Shock Tube e Blast Wave e bidimensional da Cavidade (Shear Driven Cavity Problem).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho aborda um problema inverso associado a difus~ao de calor em uma barra unidimensional. Esse fen^omeno e modelado por meio da equac~ao diferencial par- cial parabolica ut = uxx, conhecida como equac~ao de difus~ao do calor. O problema classico (problema direto) envolve essa equac~ao e um conjunto de restric~oes { as condic~oes inicial e de contorno {, o que permite garantir a exist^encia de uma soluc~ao unica. No problema inverso que estudamos, o valor da temperatura em um dos extremos da barra n~ao esta disponvel. Entretanto, conhecemos o valor da temperatura em um ponto x0 xo no interior da barra. Para aproximar o valor da temperatura no intervalo a direita de x0, propomos e testamos tr^es algoritmos de diferencas nitas: diferencas regressivas, leap-frog e diferencas regressivas maquiadas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Uma análise utilizando a série de Taylor é apresentada para se estimar a priori os erros envolvidos na solução numérica da equação de advecção unidimensional com termo fonte, através do Método dos Volumes Finitos em uma malha do tipo uniforme e uma malha não uniforme. Também faz-se um estudo a posteriori para verificar a magnitude do erro de discretização e corroborar os resultados obtidos através da análise a priori. Por meio da técnica de solução manufaturada tem-se uma solução analítica para o problema, a qual facilita a análise dos resultados numéricos encontrados, e estuda-se ainda a influência das funções de interpolação UDS e CDS e do parâmetro u na solução numérica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neste trabalho, foi desenvolvido um simulador numérico baseado no método livre de malhas Smoothed Particle Hydrodynamics (SPH) para a resolução de escoamentos de fluidos newtonianos incompressíveis. Diferentemente da maioria das versões existentes deste método, o código numérico faz uso de uma técnica iterativa na determinação do campo de pressões. Este procedimento emprega a forma diferencial de uma equação de estado para um fluido compressível e a equação da continuidade a fim de que a correção da pressão seja determinada. Uma versão paralelizada do simulador numérico foi implementada usando a linguagem de programação C/C++ e a Compute Unified Device Architecture (CUDA) da NVIDIA Corporation. Foram simulados três problemas, o problema unidimensional do escoamento de Couette e os problemas bidimensionais do escoamento no interior de uma Cavidade (Shear Driven Cavity Problem) e da Quebra de Barragem (Dambreak).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nesse trabalho, foi desenvolvido um simulador numérico (C/C++) para a resolução de escoamentos de fluidos newtonianos incompressíveis, baseado no método de partículas Lagrangiano, livre de malhas, Smoothed Particle Hydrodynamics (SPH). Tradicionalmente, duas estratégias são utilizadas na determinação do campo de pressões de forma a garantir-se a condição de incompressibilidade do fluido. A primeira delas é a formulação chamada Weak Compressible Smoothed Particle Hydrodynamics (WCSPH), onde uma equação de estado para um fluido quase-incompressível é utilizada na determinação do campo de pressões. A segunda, emprega o Método da Projeção e o campo de pressões é obtido mediante a resolução de uma equação de Poisson. No estudo aqui desenvolvido, propõe-se três métodos iterativos, baseados noMétodo da Projeção, para o cálculo do campo de pressões, Incompressible Smoothed Particle Hydrodynamics (ISPH). A fim de validar os métodos iterativos e o código computacional, foram simulados dois problemas unidimensionais: os escoamentos de Couette entre duas placas planas paralelas infinitas e de Poiseuille em um duto infinito e foram usadas condições de contorno do tipo periódicas e partículas fantasmas. Um problema bidimensional, o escoamento no interior de uma cavidade com a parede superior posta em movimento, também foi considerado. Na resolução deste problema foi utilizado o reposicionamento periódico de partículas e partículas fantasmas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo a análise do comportamento dos aterros instrumentados que compõem a obra do Arco Metropolitano do Rio de Janeiro. Os resultados da instrumentação de campo serão discutidos e retroanalisados, juntamente com dados disponíveis na literatura, buscando-se a definição de parâmetros confiáveis, representativos do comportamento da argila compressível da região em estudo. O Arco Metropolitano do Rio de Janeiro é uma rodovia projetada que servirá como ligação entre as 5 principais rodovias que cortam o município do Rio de Janeiro. Dada a magnitude da obra e a ocorrência de significativas espessuras de solos moles em alguns trechos da região, determinados aterros que compõem a rodovia foram instrumentados com placas de recalque e inclinômetros, instalados em diferentes estações de monitoramento, no intuito de avaliar os deslocamentos verticais e horizontais dos aterros durante o processo construtivo. De posse de parâmetros confiáveis, procede-se à simulação numérica do processo construtivo de um dos aterros, a partir do programa PLAXIS, de elementos finitos. Os resultados numéricos são confrontados com a instrumentação de campo (fornecida por placas de recalque) e com os resultados de previsões teóricas (teoria de adensamento unidimensional). Em projetos de aterros sobre solos compressíveis, a instrumentação geotécnica é de grande importância, pois permite acompanhar o desenvolvimento de todo o processo construtivo, e as deformações decorrentes da sobrecarga imposta pelo lançamento de camadas de aterro. A imposição de um carregamento sobre solos de alta compressibilidade e baixa resistência pode acarretar em grandes deformações ao longo do tempo, além de rupturas indesejáveis do solo de fundação. Os resultados comprovaram que a modelagem numérica mostrou-se uma ferramenta adequada para a previsão dos recalques totais e tempos de adensamento. A definição de parâmetros representativos, com base em ensaios executados em amostras de boa qualidade, é o primeiro passo para a previsão coerente da evolução dos recalques com o tempo. A retroanálise do comportamento de aterros sobre solos moles permite a reavaliação das premissas de projeto, uma vez que as limitações das teorias de análise e a dificuldade na seleção de parâmetros, muitas vezes acarretam em estimativas de recalque incoerentes com as observações de campo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A utilização de treliças para o escoramento de elementos estruturais de concreto armado e aço é considerada uma solução eficaz para o atual sistema de construção de engenharia civil. Uma mudança de atitude no processo de construção, associado com a redução dos custos causou um aumento considerável na utilização de treliças tridimensionais em aço com maior capacidade de carga. Infelizmente, o desenho destes sistemas estruturais baseia-se em cálculos muito simplificados relacionadas com vigas de uma dimensão, com propriedades de inércia constantes. Tal modelagem, muito simplificada, não pode representar adequadamente a resposta real dos modelos estruturais e pode levar a inviabilidade econômica ou mesmo inseguro desenho estrutural. Por outro lado, estas estruturas treliçadas estão relacionadas com modelos de geometria complexa e são desenhados para suportar níveis de cargas muito elevadas. Portanto, este trabalho de investigação propôs modelos de elementos finitos que representam o caráter tridimensional real do sistema de escoramento, avaliando o comportamento estático e dinâmico estrutural com mais confiabilidade e segurança. O modelo computacional proposto, desenvolvido para o sistema estrutural não linear de análise estática e dinâmica, aprovou as habituais técnicas de refinamento de malha presentes em simulações do método de elementos finitos, com base no programa ANSYS [1]. O presente estudo analisou os resultados de análises linear-elástica e não linear geométrica para ações de serviço, físicos e geométricos para as ações finais. Os resultados do presente estudo foram obtidas, com base na análise linear-elástica e não linearidade geométrica e física, e comparados com os fornecidos pela metodologia simplificada tradicional de cálculo e com os limites recomendadas por normas de concepção.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo deste estudo in vivo foi avaliar comparativamente três técnicas de clareamento de dentes polpados quanto ao grau de cor final alcançado, sensibilidade dental e satisfação pessoal de operadores e pacientes. Indivíduos jovens de mesma faixa etária e padrão de higiene bucal foram selecionados e divididos aleatoriamente entre os grupos (G1; n=7) caseiro, com regime de uso de 8 h/dia/4 semanas; (G2; n=7) consultório, com regime de clareamento de 4 sessões semanais de 2 aplicações de 15 min cada e; (G3; n=6) associado, com caseiro e consultório combinados. Para as técnicas caseira e de consultório foram utilizados peróxido de carbamida a 16% (WhitegoldHome/Dentsply) e peróxido de hidrogênio a 35% (Whitegold Office/Dentsply), respectivamente. Os registros de cor foram obtidos por um único operador antes e após o emprego da cada técnica utilizando escala de cores Vita Bleachedguide 3D-Master e máquina fotográfica digital profissional (EOS Rebel XT Canon), com ajustes de iluminação, flash e distância focal padronizados. O nível de clareamento foi avaliado por unidades de mudança de cor (luminosidade) na escala de cores, além do número de tons alcançados nas imagens digitais e mudança de cor no sistema CIE L*a*b* por meio do software ScanWhite. Os dados foram tratados estatisticamente pelos testes não paramétricos de Kruskal Wallis e dos sinais (p≤0,05). Os registros de sensibilidade dental trans e pós operatória e da satisfação pessoal dos operadores e pacientes foram preenchidos individualmente em questionário unidimensional ao final de cada sessão. Foram atribuídos escores para a avaliação final da sensibilidade dental, conforme: 0=ausente; 1=leve; 2=moderada e; 3=severa. Os dados foram tratados estatisticamente pelo teste Kruskal Wallis. As médias das variações de unidades de mudança de cor da escala Vita e do software foram, respectivamente: G1) 4,57 (IC1,34), 27,14 (IC12,03); G2) 2,86 (IC0,99), 21,29 (IC14,27); G3) 4 (IC1,82), 25,33 (IC10,70). Na comparação entre os métodos de avaliação de cor, os p-valores do teste dos sinais foram 0,453, 0,453 e 0,687 para os grupos 1, 2 e 3, respectivamente. As médias da variação total de cor (∆E) foram, respectivamente: G1) 8,79(IC4,18), G2) 7,10(IC3,53) e G3) 9,74 (IC4,07). Não foi determinada diferença estatisticamente significante entre os grupos. Os postos médios do nível de sensibilidade foram: G1 = 9,64; G2 = 11,58; e G3 = 10,43, e o p-valor = 0,807. Não houve diferença estatisticamente significante entre grupos. Conclui-se que as técnicas caseiro, consultório e associada foram igualmente eficazes quanto ao nível de cor final, de acordo com os métodos objetivos e subjetivos utilizados. O nível de sensibilidade dental foi o mesmo independentemente da técnica utilizada. Todos os indivíduos registraram satisfação ao final do clareamento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O processo de recuperação secundária de petróleo é comumente realizado com a injeção de água ou gás no reservatório a fim de manter a pressão necessária para sua extração. Para que o investimento seja viável, os gastos com a extração precisam ser menores do que o retorno financeiro obtido com a produção de petróleo. Objetivando-se estudar possíveis cenários para o processo de exploração, costuma-se utilizar simulações dos processos de extração. As equações que modelam esse processo de recuperação são de caráter hiperbólico e não lineares, as quais podem ser interpretadas como Leis de Conservação, cujas soluções são complexas por suas naturezas descontínuas. Essas descontinuidades ou saltos são conhecidas como ondas de choque. Neste trabalho foi abordada uma análise matemática para os fenômenos oriundos de leis de conservação, para em seguida utilizá-la no entendimento do referido problema. Foram estudadas soluções fracas que, fisicamente, podem ser interpretadas como ondas de choque ou rarefação, então, para que fossem distinguidas as fisicamente admissíveis, foi considerado o princípio de entropia, nas suas diversas formas. As simulações foram realizadas nos âmbitos dos escoamentos bifásicos e trifásicos, em que os fluidos são imiscíveis e os efeitos gravitacionais e difusivos, devido à pressão capilar, foram desprezados. Inicialmente, foi feito um estudo comparativo de resoluções numéricas na captura de ondas de choque em escoamento bifásico água-óleo. Neste estudo destacam-se o método Composto LWLF-k, o esquema NonStandard e a introdução da nova função de renormalização para o esquema NonStandard, onde obteve resultados satisfatórios, principalmente em regiões onde a viscosidade do óleo é muito maior do que a viscosidade da água. No escoamento bidimensional, um novo método é proposto, partindo de uma generalização do esquema NonStandard unidimensional. Por fim, é feita uma adaptação dos métodos LWLF-4 e NonStandard para a simulação em escoamentos trifásicos em domínios unidimensional. O esquema NonStandard foi considerado mais eficiente nos problemas abordados, uma vez que sua versão bidimensional mostrou-se satisfatória na captura de ondas de choque em escoamentos bifásicos em meios porosos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tese apresenta um estudo sobre modelagem computacional onde são aplicadas meta-heurísticas de otimização na solução de problemas inversos de transferência radiativa em meios unidimensionais com albedo dependente da variável óptica, e meios unidimensionais de duas camadas onde o problema inverso é tratado como um problema de otimização. O trabalho aplica uma meta-heurística baseada em comportamentos da natureza conhecida como algoritmo dos vagalumes. Inicialmente, foram feitos estudos comparativos de desempenho com dois outros algoritmos estocásticos clássicos. Os resultados encontrados indicaram que a escolha do algoritmo dos vagalumes era apropriada. Em seguida, foram propostas outras estratégias que foram inseridas no algoritmo dos vagalumes canônico. Foi proposto um caso onde se testou e investigou todas as potenciais estratégias. As que apresentaram os melhores resultados foram, então, testadas em mais dois casos distintos. Todos os três casos testados foram em um ambiente de uma camada, com albedo de espalhamento dependente da posição espacial. As estratégias que apresentaram os resultados mais competitivos foram testadas em um meio de duas camadas. Para este novo cenário foram propostos cinco novos casos de testes. Os resultados obtidos, pelas novas variantes do algoritmo dos vagalumes, foram criticamente analisados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta pesquisa consiste na solução do problema inverso de transferência radiativa para um meio participante (emissor, absorvedor e/ou espalhador) homogêneo unidimensional em uma camada, usando-se a combinação de rede neural artificial (RNA) com técnicas de otimização. A saída da RNA, devidamente treinada, apresenta os valores das propriedades radiativas [ω, τ0, ρ1 e ρ2] que são otimizadas através das seguintes técnicas: Particle Collision Algorithm (PCA), Algoritmos Genéticos (AG), Greedy Randomized Adaptive Search Procedure (GRASP) e Busca Tabu (BT). Os dados usados no treinamento da RNA são sintéticos, gerados através do problema direto sem a introdução de ruído. Os resultados obtidos unicamente pela RNA, apresentam um erro médio percentual menor que 1,64%, seria satisfatório, todavia para o tratamento usando-se as quatro técnicas de otimização citadas anteriormente, os resultados tornaram-se ainda melhores com erros percentuais menores que 0,04%, especialmente quando a otimização é feita por AG.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tese busca compreender o que os rituais funerários contemporâneos revelam sobre as maneiras com as quais as pessoas têm lidado com a morte e o morrer na atualidade. Desse eixo central se ramificam reflexões sobre a relação dos homens com o tempo, com o envelhecimento e com a finitude. Evidenciando que os modos atuais de lidar com a morte e o morrer envolvem flagrantes processos de mercantilização, patologização, medicalização e espetacularização. O crescente uso de serviços funerários de tanatoestética apontam não somente técnicas de maquiagem dos mortos, mas também estratégias de maquiagem da morte. O investimento financeiro, antes direcionado às preocupações transcendentes com o futuro da alma do morto, se reverte em intervenções físicas no corpo morto, de maneira que ele não emita sinal algum da morte que o tomou e proteja os sobreviventes do contato com a finitude. Essa dissimulação é sinalizada pela redução progressiva do espaço que a sociedade contemporânea tem destinado ao luto e ao sofrimento, categorias com cada vez mais frequência equiparadas a condições patológicas. Utilizando metodologia qualitativa, com pesquisa de campo realizada tanto no Brasil como em Portugal, durante período de doutorado sanduíche no exterior, observou-se um acentuado estreitamento entre as realidades morte e consumo. Indicando uma transposição da lógica comercial de mercado às práticas funerárias tradicionais. Assim, funções simbólicas dos rituais fúnebres vem sendo modificadas e regidas pela lógica do consumo, apresentado na atualidade como alternativa unidimensional para a imperativa vivência initerrupta do prazer e da felicidade. Constatou-se que - apesar da crescente popularização de discussões sobre o tema morte no meio acadêmico, na área da saúde e na mídia - não há aceno de ruptura no seu enquadramento como tabu. Apenas é permitido socialmente que ela ocupe locais determinados: o lugar de espetáculo, de produto, da técnica, da banalização ou mesmo do humor publicitário. As observações e as reflexões realizadas em todo o processo de construção desta tese nos inclinam a considerar que continua vedado o aprofundamento de questões ligadas à expressão de sentimentos de dor e de pesar diante das perdas. Assim como se acentuam os processos de patologização do luto e de distanciamento das demandas existênciais promovidas pela consciência da própria finitude e da passagem do tempo; do tempo de vida de cada um