984 resultados para one-dimensional waveguide


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Nesse trabalho, foi desenvolvido um simulador numérico (C/C++) para a resolução de escoamentos de fluidos newtonianos incompressíveis, baseado no método de partículas Lagrangiano, livre de malhas, Smoothed Particle Hydrodynamics (SPH). Tradicionalmente, duas estratégias são utilizadas na determinação do campo de pressões de forma a garantir-se a condição de incompressibilidade do fluido. A primeira delas é a formulação chamada Weak Compressible Smoothed Particle Hydrodynamics (WCSPH), onde uma equação de estado para um fluido quase-incompressível é utilizada na determinação do campo de pressões. A segunda, emprega o Método da Projeção e o campo de pressões é obtido mediante a resolução de uma equação de Poisson. No estudo aqui desenvolvido, propõe-se três métodos iterativos, baseados noMétodo da Projeção, para o cálculo do campo de pressões, Incompressible Smoothed Particle Hydrodynamics (ISPH). A fim de validar os métodos iterativos e o código computacional, foram simulados dois problemas unidimensionais: os escoamentos de Couette entre duas placas planas paralelas infinitas e de Poiseuille em um duto infinito e foram usadas condições de contorno do tipo periódicas e partículas fantasmas. Um problema bidimensional, o escoamento no interior de uma cavidade com a parede superior posta em movimento, também foi considerado. Na resolução deste problema foi utilizado o reposicionamento periódico de partículas e partículas fantasmas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Chronic excessive alcohol intoxications evoke cumulative damage to tissues and organs. We examined prefrontal cortex (Brodmann's area (BA) 9) from 20 human alcoholics and 20 age, gender, and postmortem delay matched control subjects. H & E staining and light microscopy of prefrontal cortex tissue revealed a reduction in the levels of cytoskeleton surrounding the nuclei of cortical and subcortical neurons, and a disruption of subcortical neuron patterning in alcoholic subjects. BA 9 tissue homogenisation and one dimensional polyacrylamide gel electrophoresis (PAGE) proteomics of cytosolic proteins identified dramatic reductions in the protein levels of spectrin beta II, and alpha- and beta-tubulins in alcoholics, and these were validated and quantitated by Western blotting. We detected a significant increase in a-tubulin acetylation in alcoholics, a non-significant increase in isoaspartate protein damage, but a significant increase in protein isoaspartyl methyltransferase protein levels, the enzyme that triggers isoaspartate damage repair in vivo. There was also a significant reduction in proteasome activity in alcoholics. One dimensional PAGE of membrane-enriched fractions detected a reduction in beta-spectrin protein levels, and a significant increase in transmembranous alpha 3 (catalytic) subunit of the Na+, K+-ATPase in alcoholic subjects. However, control subjects retained stable oligomeric forms of a-subunit that were diminished in alcoholics. In alcoholics, significant loss of cytosolic alpha-and beta-tubulins were also seen in caudate nucleus, hippocampus and cerebellum, but to different levels, indicative of brain regional susceptibility to alcohol-related damage. Collectively, these protein changes provide a molecular basis for some of the neuronal and behavioural abnormalities attributed to alcoholics

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo a análise do comportamento dos aterros instrumentados que compõem a obra do Arco Metropolitano do Rio de Janeiro. Os resultados da instrumentação de campo serão discutidos e retroanalisados, juntamente com dados disponíveis na literatura, buscando-se a definição de parâmetros confiáveis, representativos do comportamento da argila compressível da região em estudo. O Arco Metropolitano do Rio de Janeiro é uma rodovia projetada que servirá como ligação entre as 5 principais rodovias que cortam o município do Rio de Janeiro. Dada a magnitude da obra e a ocorrência de significativas espessuras de solos moles em alguns trechos da região, determinados aterros que compõem a rodovia foram instrumentados com placas de recalque e inclinômetros, instalados em diferentes estações de monitoramento, no intuito de avaliar os deslocamentos verticais e horizontais dos aterros durante o processo construtivo. De posse de parâmetros confiáveis, procede-se à simulação numérica do processo construtivo de um dos aterros, a partir do programa PLAXIS, de elementos finitos. Os resultados numéricos são confrontados com a instrumentação de campo (fornecida por placas de recalque) e com os resultados de previsões teóricas (teoria de adensamento unidimensional). Em projetos de aterros sobre solos compressíveis, a instrumentação geotécnica é de grande importância, pois permite acompanhar o desenvolvimento de todo o processo construtivo, e as deformações decorrentes da sobrecarga imposta pelo lançamento de camadas de aterro. A imposição de um carregamento sobre solos de alta compressibilidade e baixa resistência pode acarretar em grandes deformações ao longo do tempo, além de rupturas indesejáveis do solo de fundação. Os resultados comprovaram que a modelagem numérica mostrou-se uma ferramenta adequada para a previsão dos recalques totais e tempos de adensamento. A definição de parâmetros representativos, com base em ensaios executados em amostras de boa qualidade, é o primeiro passo para a previsão coerente da evolução dos recalques com o tempo. A retroanálise do comportamento de aterros sobre solos moles permite a reavaliação das premissas de projeto, uma vez que as limitações das teorias de análise e a dificuldade na seleção de parâmetros, muitas vezes acarretam em estimativas de recalque incoerentes com as observações de campo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A utilização de treliças para o escoramento de elementos estruturais de concreto armado e aço é considerada uma solução eficaz para o atual sistema de construção de engenharia civil. Uma mudança de atitude no processo de construção, associado com a redução dos custos causou um aumento considerável na utilização de treliças tridimensionais em aço com maior capacidade de carga. Infelizmente, o desenho destes sistemas estruturais baseia-se em cálculos muito simplificados relacionadas com vigas de uma dimensão, com propriedades de inércia constantes. Tal modelagem, muito simplificada, não pode representar adequadamente a resposta real dos modelos estruturais e pode levar a inviabilidade econômica ou mesmo inseguro desenho estrutural. Por outro lado, estas estruturas treliçadas estão relacionadas com modelos de geometria complexa e são desenhados para suportar níveis de cargas muito elevadas. Portanto, este trabalho de investigação propôs modelos de elementos finitos que representam o caráter tridimensional real do sistema de escoramento, avaliando o comportamento estático e dinâmico estrutural com mais confiabilidade e segurança. O modelo computacional proposto, desenvolvido para o sistema estrutural não linear de análise estática e dinâmica, aprovou as habituais técnicas de refinamento de malha presentes em simulações do método de elementos finitos, com base no programa ANSYS [1]. O presente estudo analisou os resultados de análises linear-elástica e não linear geométrica para ações de serviço, físicos e geométricos para as ações finais. Os resultados do presente estudo foram obtidas, com base na análise linear-elástica e não linearidade geométrica e física, e comparados com os fornecidos pela metodologia simplificada tradicional de cálculo e com os limites recomendadas por normas de concepção.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

简要论述了标量散射理论的研究进展做,着重介绍了Beckman的一维标量散射理论和几种典型的多层膜散射模型-非相关表面粗糙度模型、附加表面粗糙度模型和非相关体内不均匀模型,比较了这些模型在中心波长为632.8nm的11层高反膜的散射特性.结果表明,非相关体内的不均匀性引起反射能带边缘散射,反射能带内的散射主要由附加表面粗糙度引起.理想粗糙度对膜系反射带内的散射影响很小,对反射带边缘几乎无影响.预测了标量散射理论的应用领域及前景.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

We show that dynamics in the spin-orbit coupling field simulate the von Neumann measurement of a particle spin. We demonstrate how the measurement influences the spin and coordinate evolution of a particle by comparing two examples of such a procedure. The first example is a simultaneous measurement of spin components, sigma(x) and sigma(y), corresponding to non-commuting operators, which cannot be accurately obtained together at a given time instant due to the Heisenberg uncertainty ratio. By mapping spin dynamics onto a spatial walk, such a procedure determines measurement-time averages of sigma(x) and sigma(y), which can already be precisely evaluated in a single short-time measurement. The other, qualitatively different, example is the spin of a one-dimensional particle in a magnetic field. Here, the measurement outcome depends on the angle between the spin-orbit coupling and magnetic fields. These results can be applied to studies of spin-orbit coupled cold atoms and electrons in solids.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

通过传输矩阵法分析了材料介电常数的变化对于单缺陷结构的磁光多层膜隔离器性能的响,并提出了一种多缺陷结构的磁光多层膜结构.同单缺陷结构相比,多缺陷结构的旋转角的频谱响应带宽有很大增加,对于材料介电常数变化的宽容性得到了一个数量级的提高.同时这种多缺陷的结构对于膜层厚度的变化和入射角度也有很好的宽容性.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O objetivo deste estudo in vivo foi avaliar comparativamente três técnicas de clareamento de dentes polpados quanto ao grau de cor final alcançado, sensibilidade dental e satisfação pessoal de operadores e pacientes. Indivíduos jovens de mesma faixa etária e padrão de higiene bucal foram selecionados e divididos aleatoriamente entre os grupos (G1; n=7) caseiro, com regime de uso de 8 h/dia/4 semanas; (G2; n=7) consultório, com regime de clareamento de 4 sessões semanais de 2 aplicações de 15 min cada e; (G3; n=6) associado, com caseiro e consultório combinados. Para as técnicas caseira e de consultório foram utilizados peróxido de carbamida a 16% (WhitegoldHome/Dentsply) e peróxido de hidrogênio a 35% (Whitegold Office/Dentsply), respectivamente. Os registros de cor foram obtidos por um único operador antes e após o emprego da cada técnica utilizando escala de cores Vita Bleachedguide 3D-Master e máquina fotográfica digital profissional (EOS Rebel XT Canon), com ajustes de iluminação, flash e distância focal padronizados. O nível de clareamento foi avaliado por unidades de mudança de cor (luminosidade) na escala de cores, além do número de tons alcançados nas imagens digitais e mudança de cor no sistema CIE L*a*b* por meio do software ScanWhite. Os dados foram tratados estatisticamente pelos testes não paramétricos de Kruskal Wallis e dos sinais (p≤0,05). Os registros de sensibilidade dental trans e pós operatória e da satisfação pessoal dos operadores e pacientes foram preenchidos individualmente em questionário unidimensional ao final de cada sessão. Foram atribuídos escores para a avaliação final da sensibilidade dental, conforme: 0=ausente; 1=leve; 2=moderada e; 3=severa. Os dados foram tratados estatisticamente pelo teste Kruskal Wallis. As médias das variações de unidades de mudança de cor da escala Vita e do software foram, respectivamente: G1) 4,57 (IC1,34), 27,14 (IC12,03); G2) 2,86 (IC0,99), 21,29 (IC14,27); G3) 4 (IC1,82), 25,33 (IC10,70). Na comparação entre os métodos de avaliação de cor, os p-valores do teste dos sinais foram 0,453, 0,453 e 0,687 para os grupos 1, 2 e 3, respectivamente. As médias da variação total de cor (∆E) foram, respectivamente: G1) 8,79(IC4,18), G2) 7,10(IC3,53) e G3) 9,74 (IC4,07). Não foi determinada diferença estatisticamente significante entre os grupos. Os postos médios do nível de sensibilidade foram: G1 = 9,64; G2 = 11,58; e G3 = 10,43, e o p-valor = 0,807. Não houve diferença estatisticamente significante entre grupos. Conclui-se que as técnicas caseiro, consultório e associada foram igualmente eficazes quanto ao nível de cor final, de acordo com os métodos objetivos e subjetivos utilizados. O nível de sensibilidade dental foi o mesmo independentemente da técnica utilizada. Todos os indivíduos registraram satisfação ao final do clareamento.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O processo de recuperação secundária de petróleo é comumente realizado com a injeção de água ou gás no reservatório a fim de manter a pressão necessária para sua extração. Para que o investimento seja viável, os gastos com a extração precisam ser menores do que o retorno financeiro obtido com a produção de petróleo. Objetivando-se estudar possíveis cenários para o processo de exploração, costuma-se utilizar simulações dos processos de extração. As equações que modelam esse processo de recuperação são de caráter hiperbólico e não lineares, as quais podem ser interpretadas como Leis de Conservação, cujas soluções são complexas por suas naturezas descontínuas. Essas descontinuidades ou saltos são conhecidas como ondas de choque. Neste trabalho foi abordada uma análise matemática para os fenômenos oriundos de leis de conservação, para em seguida utilizá-la no entendimento do referido problema. Foram estudadas soluções fracas que, fisicamente, podem ser interpretadas como ondas de choque ou rarefação, então, para que fossem distinguidas as fisicamente admissíveis, foi considerado o princípio de entropia, nas suas diversas formas. As simulações foram realizadas nos âmbitos dos escoamentos bifásicos e trifásicos, em que os fluidos são imiscíveis e os efeitos gravitacionais e difusivos, devido à pressão capilar, foram desprezados. Inicialmente, foi feito um estudo comparativo de resoluções numéricas na captura de ondas de choque em escoamento bifásico água-óleo. Neste estudo destacam-se o método Composto LWLF-k, o esquema NonStandard e a introdução da nova função de renormalização para o esquema NonStandard, onde obteve resultados satisfatórios, principalmente em regiões onde a viscosidade do óleo é muito maior do que a viscosidade da água. No escoamento bidimensional, um novo método é proposto, partindo de uma generalização do esquema NonStandard unidimensional. Por fim, é feita uma adaptação dos métodos LWLF-4 e NonStandard para a simulação em escoamentos trifásicos em domínios unidimensional. O esquema NonStandard foi considerado mais eficiente nos problemas abordados, uma vez que sua versão bidimensional mostrou-se satisfatória na captura de ondas de choque em escoamentos bifásicos em meios porosos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta tese apresenta um estudo sobre modelagem computacional onde são aplicadas meta-heurísticas de otimização na solução de problemas inversos de transferência radiativa em meios unidimensionais com albedo dependente da variável óptica, e meios unidimensionais de duas camadas onde o problema inverso é tratado como um problema de otimização. O trabalho aplica uma meta-heurística baseada em comportamentos da natureza conhecida como algoritmo dos vagalumes. Inicialmente, foram feitos estudos comparativos de desempenho com dois outros algoritmos estocásticos clássicos. Os resultados encontrados indicaram que a escolha do algoritmo dos vagalumes era apropriada. Em seguida, foram propostas outras estratégias que foram inseridas no algoritmo dos vagalumes canônico. Foi proposto um caso onde se testou e investigou todas as potenciais estratégias. As que apresentaram os melhores resultados foram, então, testadas em mais dois casos distintos. Todos os três casos testados foram em um ambiente de uma camada, com albedo de espalhamento dependente da posição espacial. As estratégias que apresentaram os resultados mais competitivos foram testadas em um meio de duas camadas. Para este novo cenário foram propostos cinco novos casos de testes. Os resultados obtidos, pelas novas variantes do algoritmo dos vagalumes, foram criticamente analisados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta pesquisa consiste na solução do problema inverso de transferência radiativa para um meio participante (emissor, absorvedor e/ou espalhador) homogêneo unidimensional em uma camada, usando-se a combinação de rede neural artificial (RNA) com técnicas de otimização. A saída da RNA, devidamente treinada, apresenta os valores das propriedades radiativas [ω, τ0, ρ1 e ρ2] que são otimizadas através das seguintes técnicas: Particle Collision Algorithm (PCA), Algoritmos Genéticos (AG), Greedy Randomized Adaptive Search Procedure (GRASP) e Busca Tabu (BT). Os dados usados no treinamento da RNA são sintéticos, gerados através do problema direto sem a introdução de ruído. Os resultados obtidos unicamente pela RNA, apresentam um erro médio percentual menor que 1,64%, seria satisfatório, todavia para o tratamento usando-se as quatro técnicas de otimização citadas anteriormente, os resultados tornaram-se ainda melhores com erros percentuais menores que 0,04%, especialmente quando a otimização é feita por AG.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta tese busca compreender o que os rituais funerários contemporâneos revelam sobre as maneiras com as quais as pessoas têm lidado com a morte e o morrer na atualidade. Desse eixo central se ramificam reflexões sobre a relação dos homens com o tempo, com o envelhecimento e com a finitude. Evidenciando que os modos atuais de lidar com a morte e o morrer envolvem flagrantes processos de mercantilização, patologização, medicalização e espetacularização. O crescente uso de serviços funerários de tanatoestética apontam não somente técnicas de maquiagem dos mortos, mas também estratégias de maquiagem da morte. O investimento financeiro, antes direcionado às preocupações transcendentes com o futuro da alma do morto, se reverte em intervenções físicas no corpo morto, de maneira que ele não emita sinal algum da morte que o tomou e proteja os sobreviventes do contato com a finitude. Essa dissimulação é sinalizada pela redução progressiva do espaço que a sociedade contemporânea tem destinado ao luto e ao sofrimento, categorias com cada vez mais frequência equiparadas a condições patológicas. Utilizando metodologia qualitativa, com pesquisa de campo realizada tanto no Brasil como em Portugal, durante período de doutorado sanduíche no exterior, observou-se um acentuado estreitamento entre as realidades morte e consumo. Indicando uma transposição da lógica comercial de mercado às práticas funerárias tradicionais. Assim, funções simbólicas dos rituais fúnebres vem sendo modificadas e regidas pela lógica do consumo, apresentado na atualidade como alternativa unidimensional para a imperativa vivência initerrupta do prazer e da felicidade. Constatou-se que - apesar da crescente popularização de discussões sobre o tema morte no meio acadêmico, na área da saúde e na mídia - não há aceno de ruptura no seu enquadramento como tabu. Apenas é permitido socialmente que ela ocupe locais determinados: o lugar de espetáculo, de produto, da técnica, da banalização ou mesmo do humor publicitário. As observações e as reflexões realizadas em todo o processo de construção desta tese nos inclinam a considerar que continua vedado o aprofundamento de questões ligadas à expressão de sentimentos de dor e de pesar diante das perdas. Assim como se acentuam os processos de patologização do luto e de distanciamento das demandas existênciais promovidas pela consciência da própria finitude e da passagem do tempo; do tempo de vida de cada um

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Desde os primórdios da humanidade, a descoberta do método de processamento cerebral do som, e consequentemente da música, fazem parte do imaginário humano. Portanto, as pesquisas relacionadas a este processo constituem um dos mais vastos campos de estudos das áreas de ciências. Dentre as inúmeras tentativas para compreensão do processamento biológico do som, o ser humano inventou o processo automático de composição musical, com o intuito de aferir a possibilidade da realização de composições musicais de qualidade sem a imposição sentimental, ou seja, apenas com a utilização das definições e estruturas de música existentes. Este procedimento automático de composição musical, também denominado música aleatória ou música do acaso, tem sido vastamente explorado ao longo dos séculos, já tendo sido utilizado por alguns dos grandes nomes do cenário musical, como por exemplo, Mozart. Os avanços nas áreas de engenharia e computação permitiram a evolução dos métodos utilizados para composição de música aleatória, tornando a aplicação de autômatos celulares uma alternativa viável para determinação da sequência de execução de notas musicais e outros itens utilizados durante a composição deste tipo de música. Esta dissertação propõe uma arquitetura para geração de música harmonizada a partir de intervalos melódicos determinados por autômatos celulares, implementada em hardware reconfigurável do tipo FPGA. A arquitetura proposta possui quatro tipos de autômatos celulares, desenvolvidos através dos modelos de vizinhança unidimensional de Wolfram, vizinhança bidimensional de Neumann, vizinhança bidimensional Moore e vizinhança tridimensional de Neumann, que podem ser combinados de 16 formas diferentes para geração de melodias. Os resultados do processamento realizado pela arquitetura proposta são melodias no formato .mid, compostas através da utilização de dois autômatos celulares, um para escolha das notas e outro para escolha dos instrumentos a serem emulados, de acordo com o protocolo MIDI. Para tal esta arquitetura é formada por três unidades principais, a unidade divisor de frequência, que é responsável pelo sincronismo das tarefas executadas pela arquitetura, a unidade de conjunto de autômatos celulares, que é responsável pelo controle e habilitação dos autômatos celulares, e a unidade máquina MIDI, que é responsável por organizar os resultados de cada iteração corrente dos autômatos celulares e convertê-los conforme a estrutura do protocolo MIDI, gerando-se assim o produto musical. A arquitetura proposta é parametrizável, de modo que a configuração dos dados que influenciam no produto musical gerado, como por exemplo, a definição dos conjuntos de regras para os autômatos celulares habilitados, fica a cargo do usuário, não havendo então limites para as combinações possíveis a serem realizadas na arquitetura. Para validação da funcionalidade e aplicabilidade da arquitetura proposta, alguns dos resultados obtidos foram apresentados e detalhados através do uso de técnicas de obtenção de informação musical.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Desde a descoberta do estado quasicristalino por Daniel Shechtman et al. em 1984 e da fabricação por Roberto Merlin et al. de uma superrede artificial de GaAs/ AlAs em 1985 com características da sequência de Fibonacci, um grande número de trabalhos teóricos e experimentais tem relatado uma variedade de propriedades interessantes no comportamento de sistemas aperiódicos. Do ponto de vista teórico, é bem sabido que a cadeia de Fibonacci em uma dimensão se constitui em um protótipo de sucesso para a descrição do estado quasicristalino de um sólido. Dependendo da regra de inflação, diferentes tipos de estruturas aperiódicas podem ser obtidas. Esta diversidade originou as chamadas regras metálicas e devido à possibilidade de tratamento analítico rigoroso este modelo tem sido amplamente estudado. Neste trabalho, propriedades de localização em uma dimensão são analisadas considerando-se um conjunto de regras metálicas e o modelo de ligações fortes de banda única. Considerando-se o Hamiltoniano de ligações fortes com um orbital por sítio obtemos um conjunto de transformações relativas aos parâmetros de dizimação, o que nos permitiu calcular as densidades de estados (DOS) para todas as configurações estudadas. O estudo detalhado da densidade de estados integrada (IDOS) para estes casos, mostra o surgimento de plateaux na curva do número de ocupação explicitando o aparecimento da chamada escada do diabo" e também o caráter fractal destas estruturas. Estudando o comportamento da variação da energia em função da variação da energia de hopping, construímos padrões do tipo borboletas de Hofstadter, que simulam o efeito de um campo magnético atuando sobre o sistema. A natureza eletrônica dos auto estados é analisada a partir do expoente de Lyapunov (γ), que está relacionado com a evolução da função de onda eletrônica ao longo da cadeia unidimensional. O expoente de Lyapunov está relacionado com o inverso do comprimento de localização (ξ= 1 /γ), sendo nulo para os estados estendidos e positivo para estados localizados. Isto define claramente as posições dos principais gaps de energia do sistema. Desta forma, foi possível analisar o comportamento autossimilar de cadeias com diferentes regras de formação. Analisando-se o espectro de energia em função do número de geração de cadeias que seguem as regras de ouro e prata foi feito, obtemos conjuntos do tipo-Cantor, que nos permitiu estudar o perfil do calor específico de uma cadeia e Fibonacci unidimensional para diversas gerações