24 resultados para Termodinâmica computacional
em Repositório Institucional da Universidade de Aveiro - Portugal
Resumo:
Um dos maiores avanços científicos do século XX foi o desenvolvimento de tecnologia que permite a sequenciação de genomas em larga escala. Contudo, a informação produzida pela sequenciação não explica por si só a sua estrutura primária, evolução e seu funcionamento. Para esse fim novas áreas como a biologia molecular, a genética e a bioinformática são usadas para estudar as diversas propriedades e funcionamento dos genomas. Com este trabalho estamos particularmente interessados em perceber detalhadamente a descodificação do genoma efectuada no ribossoma e extrair as regras gerais através da análise da estrutura primária do genoma, nomeadamente o contexto de codões e a distribuição dos codões. Estas regras estão pouco estudadas e entendidas, não se sabendo se poderão ser obtidas através de estatística e ferramentas bioinfomáticas. Os métodos tradicionais para estudar a distribuição dos codões no genoma e seu contexto não providenciam as ferramentas necessárias para estudar estas propriedades à escala genómica. As tabelas de contagens com as distribuições de codões, assim como métricas absolutas, estão actualmente disponíveis em bases de dados. Diversas aplicações para caracterizar as sequências genéticas estão também disponíveis. No entanto, outros tipos de abordagens a nível estatístico e outros métodos de visualização de informação estavam claramente em falta. No presente trabalho foram desenvolvidos métodos matemáticos e computacionais para a análise do contexto de codões e também para identificar zonas onde as repetições de codões ocorrem. Novas formas de visualização de informação foram também desenvolvidas para permitir a interpretação da informação obtida. As ferramentas estatísticas inseridas no modelo, como o clustering, análise residual, índices de adaptação dos codões revelaram-se importantes para caracterizar as sequências codificantes de alguns genomas. O objectivo final é que a informação obtida permita identificar as regras gerais que governam o contexto de codões em qualquer genoma.
Resumo:
A utilização combinada de espectroscopia vibracional e de cálculos envolvendo a teoria do funcional de densidade (DFT) possibilita o estudo de ligações de hidrogénio em fase condensada, assim como a análise da estrutura molecular dos sistemas em estudo. Por um lado, a espectroscopia vibracional permite a detecção de associações moleculares, enquanto os métodos computacionais auxiliam na obtenção de informação referente aos mecanismos de associação, nomeadamente no que diz respeito à possível estrutura de dímeros e compostos de inclusão em ciclodextrinas e às energias de interacção e de inclusão. O estudo que originou a presente dissertação pretende contribuir para o reforço da aplicação de estudos espectroscópicos e computacionais na elucidação de diversos fenómenos químicos, com especial destaque para o papel desempenhado por interacções intermoleculares fracas na estrutura e propriedades de materiais moleculares. No âmbito desta tese foram investigados os seguintes tópicos: polimorfismo e pseudopolimorfismo em sólidos farmacêuticos, transições de fase em misturas binárias de ácidos gordos, inclusão em ciclodextrinas, interacção de compostos farmacêuticos com superfícies metálicas e formação de agregados de água em materiais híbridos orgânicos-inorgânicos. Os sistemas foram analisados utilizando a espectroscopia vibracional – particularmente a espectroscopia de difusão de Raman – como técnica fundamental. Para uma melhor caracterização de processos envolvendo transições de fase, foram efectuados estudos com variação de temperatura, variação de humidade relativa e substituição isotópica. O estudo da interacção com superfícies metálicas foi realizado por espectroscopia de Raman intensificada à superfície. Dada a complexidade dos sistemas em estudo, a informação obtida por espectroscopia vibracional foi complementada por resultados de cálculos mecânico-quânticos. Em particular, os cálculos DFT foram utilizados para a optimização de geometrias e previsão de frequências vibracionais de moléculas e associações moleculares, permitindo assim a análise e interpretação de espectros vibracionais e a caracterização da estrutura de materiais.
Resumo:
Bioorganic ferroelectrics and piezoelectrics are becoming increasingly important in view of their intrinsic compatibility with biological environment and biofunctionality combined with strong piezoelectric effect and switchable polarization at room temperature. Here we study piezoelectricity and ferroelectricity in the smallest amino acid glycine, representing a broad class of non-centrosymmetric amino acids. Glycine is one of the basic and important elements in biology, as it serves as a building block for proteins. Three polymorphic forms with different physical properties are possible in glycine (α, β and γ), Of special interest for various applications are non-centrosymmetric polymorphs: β-glycine and γ-glycine. The most useful β-polymorph being ferroelectric took much less attention than the other due to its instability under ambient conditions. In this work, we could grow stable microcrystals of β-glycine by the evaporation of aqueous solution on a (111)Pt/Ti/SiO2/Si substrate as a template. The effects of the solution concentration and Pt-assisted nucleation on the crystal growth and phase evolution were characterized by X-ray diffraction analysis and Raman spectroscopy. In addition, spin-coating technique was used for the fabrication of highly aligned nano-islands of β-glycine with regular orientation of the crystallographic axes relative the underlying substrate (Pt). Further we study both as-grown and tip-induced domain structures and polarization switching in the β-glycine molecular systems by Piezoresponse Force Microscopy (PFM) and compare the results with molecular modeling and computer simulations. We show that β-glycine is indeed a room-temperature ferroelectric and polarization can be switched by applying a bias to non-polar cuts via a conducting tip of atomic force microscope (AFM). Dynamics of these in-plane domains is studied as a function of applied voltage and pulse duration. The domain shape is dictated by both internal and external polarization screening mediated by defects and topographic features. Thermodynamic theory is applied to explain the domain propagation induced by the AFM tip. Our findings suggest that β-glycine is a uniaxial ferroelectric with the properties controlled by the charged domain walls which in turn can be manipulated by external bias. Besides, nonlinear optical properties of β-glycine were investigated by a second harmonic generation (SHG) method. SHG method confirmed that the 2-fold symmetry is preserved in as-grown crystals, thus reflecting the expected P21 symmetry of the β-phase. Spontaneous polarization direction is found to be parallel to the monoclinic [010] axis and directed along the crystal length. These data are confirmed by computational molecular modeling. Optical measurements revealed also relatively high values of the nonlinear optical susceptibility (50% greater than in the z-cut quartz). The potential of using stable β-glycine crystals in various applications are discussed in this work.
Resumo:
The recently reported Monte Carlo Random Path Sampling method (RPS) is here improved and its application is expanded to the study of the 2D and 3D Ising and discrete Heisenberg models. The methodology was implemented to allow use in both CPU-based high-performance computing infrastructures (C/MPI) and GPU-based (CUDA) parallel computation, with significant computational performance gains. Convergence is discussed, both in terms of free energy and magnetization dependence on field/temperature. From the calculated magnetization-energy joint density of states, fast calculations of field and temperature dependent thermodynamic properties are performed, including the effects of anisotropy on coercivity, and the magnetocaloric effect. The emergence of first-order magneto-volume transitions in the compressible Ising model is interpreted using the Landau theory of phase transitions. Using metallic Gadolinium as a real-world example, the possibility of using RPS as a tool for computational magnetic materials design is discussed. Experimental magnetic and structural properties of a Gadolinium single crystal are compared to RPS-based calculations using microscopic parameters obtained from Density Functional Theory.
Resumo:
O projecto de sequenciação do genoma humano veio abrir caminho para o surgimento de novas áreas transdisciplinares de investigação, como a biologia computacional, a bioinformática e a bioestatística. Um dos resultados emergentes desde advento foi a tecnologia de DNA microarrays, que permite o estudo do perfil da expressão de milhares de genes, quando sujeitos a perturbações externas. Apesar de ser uma tecnologia relativamente consolidada, continua a apresentar um conjunto vasto de desafios, nomeadamente do ponto de vista computacional e dos sistemas de informação. São exemplos a optimização dos procedimentos de tratamento de dados bem como o desenvolvimento de metodologias de interpretação semi-automática dos resultados. O principal objectivo deste trabalho consistiu em explorar novas soluções técnicas para agilizar os procedimentos de armazenamento, partilha e análise de dados de experiências de microarrays. Com esta finalidade, realizou-se uma análise de requisitos associados às principais etapas da execução de uma experiência, tendo sido identificados os principais défices, propostas estratégias de melhoramento e apresentadas novas soluções. Ao nível da gestão de dados laboratoriais, é proposto um LIMS (Laboratory Information Management System) que possibilita a gestão de todos os dados gerados e dos procedimentos realizados. Este sistema integra ainda uma solução que permite a partilha de experiências, de forma a promover a participação colaborativa de vários investigadores num mesmo projecto, mesmo usando LIMS distintos. No contexto da análise de dados, é apresentado um modelo que facilita a integração de algoritmos de processamento e de análise de experiências no sistema desenvolvido. Por fim, é proposta uma solução para facilitar a interpretação biológica de um conjunto de genes diferencialmente expressos, através de ferramentas que integram informação existente em diversas bases de dados biomédicas.
Resumo:
O presente trabalho aborda o problema da estimação de canal e da estimação de desvio de frequência em sistemas OFDM com múltiplas configurações de antenas no transmissor e no receptor. Nesta tese é apresentado o estudo teórico sobre o impacto da densidade de pilotos no desempenho da estimação de canal em sistemas OFDM e são propostos diversos algoritmos para estimação de canal e estimação de desvio de frequência em sistemas OFDM com antenas únicas no transmissor e receptor, com diversidade de transmissão e MIMO. O estudo teórico culmina com a formulação analítica do erro quadrático médio de um estimador de canal genérico num sistema OFDM que utilize pilotos dedicados, distribuidos no quadro transmitido em padrões bi-dimensionais. A formulação genérica é concretizada para o estimador bi-dimensional LS-DFT, permitindo aferir da exactidão da formulação analítica quando comparada com os valores obtidos por simulação do sistema abordado. Os algoritmos de estimação investigados tiram partido da presença de pilotos dedicados presentes nos quadros transmitidos para estimar com precisão os parâmetros pretendidos. Pela sua baixa complexidade, estes algoritmos revelam-se especialmente adequados para implementação em terminais móveis com capacidade computacional e consumo limitados. O desempenho dos algoritmos propostos foi avaliado por meio de simulação do sistema utilizado, recorrendo a modelos aceites de caracterização do canal móvel multipercurso. A comparação do seu desempenho com algoritmos de referência permitir aferir da sua validade. ABSTRACT: The present work focus on the problem of channel estimation and frequency offset estimation in OFDM systems, with different antenna configurations at both the transmitter and the receiver. This thesis presents the theoretical study of the impact of the pilot density in the performance of the channel estimation in OFDM systems and proposes several channel and frequency offset algorithms for OFDM systems with single antenna at both transmitter and receiver, with transmitter diversity and MIMO. The theoretical study results in the analytical formulation of the mean square error of a generic channel estimator for an OFDM system using dedicated pilots, distributed in the transmitted frame in two-dimensional patterns. The generic formulation is implemented for the two-dimensional LS-DFT estimator to verify the accuracy of the analytical formulation when compared with the values obtained by simulation of the discussed system. The investigated estimation algorithms take advantage of the presence of dedicated pilots present in the transmitted frames to accurately estimate the required parameters. Due to its low complexity, these algorithms are especially suited for implementation in mobile terminals with limited processing power and consumption. The performance of the proposed algorithms was evaluated by simulation of the used system, using accepted multipath mobile channel models. The comparison of its performance with the one of reference algorithms measures its validity.
Resumo:
O presente trabalho apresenta novas metodologias desenvolvidas para a análise das propriedades magnéticas e magnetocalóricas de materiais, sustentadas em considerações teóricas a partir de modelos, nomeadamente a teoria de transições de fase de Landau, o modelo de campo médio molecular e a teoria de fenómeno crítico. São propostos novos métodos de escala, permitindo a interpretação de dados de magnetização de materiais numa perspectiva de campo médio molecular ou teoria de fenómeno crítico. É apresentado um método de estimar a magnetização espontânea de um material ferromagnético a partir de relações entropia/magnetização estabelecidas pelo modelo de campo médio molecular. A termodinâmica das transições de fase magnéticas de primeira ordem é estudada usando a teoria de Landau e de campo médio molecular (modelo de Bean-Rodbell), avaliando os efeitos de fenómenos fora de equilíbrio e de condições de mistura de fase em estimativas do efeito magnetocalórico a partir de medidas magnéticas. Efeitos de desordem, interpretados como uma distribuição na interacção magnética entre iões, estabelecem os efeitos de distribuições químicas/estruturais nas propriedades magnéticas e magnetocalóricas de materiais com transições de fase de segunda e de primeira ordem. O uso das metodologias apresentadas na interpretação das propriedades magnéticas de variados materiais ferromagnéticos permitiu obter: 1) uma análise quantitativa da variação de spin por ião Gadolínio devido à transição estrutural do composto Gd5Si2Ge2, 2) a descrição da configuração de cluster magnético de iões Mn na fase ferromagnética em manganites da família La-Sr e La-Ca, 3) a determinação dos expoentes críticos β e δ do Níquel por métodos de escala, 4) a descrição do efeito da pressão nas propriedades magnéticas e magnetocalóricas do composto LaFe11.5Si1.5 através do modelo de Bean-Rodbell, 5) uma estimativa da desordem em manganites ferromagnéticas com transições de segunda e primeira ordem, 6) uma descrição de campo médio das propriedades magnéticas da liga Fe23Cu77, 7) o estudo de efeitos de separação de fase na família de compostos La0.70-xErxSr0.30MnO3 e 8) a determinação realista da variação de entropia magnética na família de compostos de efeito magnetocalórico colossal Mn1-x-yFexCryAs.
Resumo:
Tal como o título indica, esta tese estuda problemas de cobertura com alcance limitado. Dado um conjunto de antenas (ou qualquer outro dispositivo sem fios capaz de receber ou transmitir sinais), o objectivo deste trabalho é calcular o alcance mínimo das antenas de modo a que estas cubram completamente um caminho entre dois pontos numa região. Um caminho que apresente estas características é um itinerário seguro. A definição de cobertura é variável e depende da aplicação a que se destina. No caso de situações críticas como o controlo de fogos ou cenários militares, a definição de cobertura recorre à utilização de mais do que uma antena para aumentar a eficácia deste tipo de vigilância. No entanto, o alcance das antenas deverá ser minimizado de modo a manter a vigilância activa o maior tempo possível. Consequentemente, esta tese está centrada na resolução deste problema de optimização e na obtenção de uma solução particular para cada caso. Embora este problema de optimização tenha sido investigado como um problema de cobertura, é possível estabelecer um paralelismo entre problemas de cobertura e problemas de iluminação e vigilância, que são habitualmente designados como problemas da Galeria de Arte. Para converter um problema de cobertura num de iluminação basta considerar um conjunto de luzes em vez de um conjunto de antenas e submetê-lo a restrições idênticas. O principal tema do conjunto de problemas da Galeria de Arte abordado nesta tese é a 1-boa iluminação. Diz-se que um objecto está 1-bem iluminado por um conjunto de luzes se o invólucro convexo destas contém o objecto, tornando assim este conceito num tipo de iluminação de qualidade. O objectivo desta parte do trabalho é então minimizar o alcance das luzes de modo a manter uma iluminação de qualidade. São também apresentadas duas variantes da 1-boa iluminação: a iluminação ortogonal e a boa !-iluminação. Esta última tem aplicações em problemas de profundidade e visualização de dados, temas que são frequentemente abordados em estatística. A resolução destes problemas usando o diagrama de Voronoi Envolvente (uma variante do diagrama de Voronoi adaptada a problemas de boa iluminação) é também proposta nesta tese.
Resumo:
Os problemas de visibilidade têm diversas aplicações a situações reais. Entre os mais conhecidos, e exaustivamente estudados, estão os que envolvem os conceitos de vigilância e ocultação em estruturas geométricas (problemas de vigilância e ocultação). Neste trabalho são estudados problemas de visibilidade em estruturas geométricas conhecidas como polígonos, uma vez que estes podem representar, de forma apropriada, muitos dos objectos reais e são de fácil manipulação computacional. O objectivo dos problemas de vigilância é a determinação do número mínimo de posições para a colocação de dispositivos num dado polígono, de modo a que estes dispositivos consigam “ver” a totalidade do polígono. Por outro lado, o objectivo dos problemas de ocultação é a determinação do número máximo de posições num dado polígono, de modo a que quaisquer duas posições não se consigam “ver”. Infelizmente, a maior parte dos problemas de visibilidade em polígonos são NP-difíceis, o que dá origem a duas linhas de investigação: o desenvolvimento de algoritmos que estabelecem soluções aproximadas e a determinação de soluções exactas para classes especiais de polígonos. Atendendo a estas duas linhas de investigação, o trabalho é dividido em duas partes. Na primeira parte são propostos algoritmos aproximados, baseados essencialmente em metaheurísticas e metaheurísticas híbridas, para resolver alguns problemas de visibilidade, tanto em polígonos arbitrários como ortogonais. Os problemas estudados são os seguintes: “Maximum Hidden Vertex Set problem”, “Minimum Vertex Guard Set problem”, “Minimum Vertex Floodlight Set problem” e “Minimum Vertex k-Modem Set problem”. São também desenvolvidos métodos que permitem determinar a razão de aproximação dos algoritmos propostos. Para cada problema são implementados os algoritmos apresentados e é realizado um estudo estatístico para estabelecer qual o algoritmo que obtém as melhores soluções num tempo razoável. Este estudo permite concluir que as metaheurísticas híbridas são, em geral, as melhores estratégias para resolver os problemas de visibilidade estudados. Na segunda parte desta dissertação são abordados os problemas “Minimum Vertex Guard Set”, “Maximum Hidden Set” e “Maximum Hidden Vertex Set”, onde são identificadas e estudadas algumas classes de polígonos para as quais são determinadas soluções exactas e/ou limites combinatórios.
Resumo:
A aplicação de simulações de mecânica e dinâmica molecular ao estudo de sistemas supramoleculares tem adquirido, ao longo dos últimos anos, enorme relevância. A sua utilização não só tem levado a uma melhor compreensão dos mecanismos de formação desses mesmos sistemas, como também tem fornecido um meio para o desenvolvimento de novas arquitecturas supramoleculares. Nesta tese são descritos os trabalhos de mecânica e dinâmica molecular desenvolvidos no âmbito do estudo de associações supramoleculares entre aniões e receptores sintéticos do tipo [2]catenano, [2]rotaxano e pseudorotaxano. São ainda estudados complexos supramoleculares envolvendo receptores heteroditópicos do tipo calix[4]diquinona e pares iónicos formados por aniões halogeneto e catiões alcalinos e amónio. Os estudos aqui apresentados assentam essencialmente em duas vertentes: no estudo das propriedades dinâmicas em solução dos vários complexos supramoleculares considerados e no cálculo das energias livres de Gibbs de associação relativas dos vários iões aos receptores sintéticos. As metodologias utilizadas passaram por dinâmica molecular convencional e REMD (Replica Exchange Molecular Dynamics), para o estudo das propriedades em solução, e por cálculos de integração termodinâmica e MMPBSA (Molecular Mechanics – Poisson Boltzmann Surface Area), para a computação das energias livres de associação relativas. Os resultados obtidos, além de terem permitido uma visão mais detalhada dos mecanismos envolvidos no reconhecimento e associação dos vários receptores aos aniões e pares iónicos abordados, encontram-se, globalmente, de acordo com os análogos determinados experimentalmente, validando assim as metodologias empregadas. Em jeito de conclusão, investigou-se ainda a capacidade de um dos receptores heteroditópicos estudados para assistir favoravelmente na migração do par iónico KCl através da interface água-clorofórmio. Para tal, foram utilizadas simulações SMD (Steered Molecular Dynamics) para a computação do perfil de energia livre de Gibbs associada à migração do par iónico através da interface.
Resumo:
Em consequência de uma série de problemas ambientais, económicos e políticos relacionados com o uso de combustíveis convencionais, vários países estão agora a focar as suas atenções em combustíveis alternativos. O biodiesel está na linha da frente das alternativas ao petróleo no sector dos transportes, sendo considerado uma opção a curto prazo visto que o seu preço é competitivo e não são necessárias mudanças nos motores para implementar o seu uso. De entres os possíveis processos de produzir biodiesel, a reacção de transesterificação com catálise básica é o método preferido. Depois da reacção são sempre necessários processos de purificação de modo ao biodiesel produzido cumprir os standards definidos para os combustíveis alternativos, reduzindo problemas de motor e consequentemente aumentando a sua aceitação por parte dos consumidores. De entre as especificações encontram-se o conteúdo em água, em álcool e em glicerol. Ser-se capaz de descrever correctamente o equilíbrio de fases de sistemas que são de interesse para os processos de purificação de biodieseis numa gama alargada de condições termodinâmicas é uma condição necessária para uma correcta simulação do processo industrial, de modo a se atingir uma elevada produtividade a baixos custos de operação. O uso de moléculas oxigenadas como combustíveis representa uma alteração significativa em termos da termodinâmica de soluções. Para combustíveis baseados em petróleo as equações de estado cúbicas e os modelos clássicos de coeficientes de actividade mostraram ser apropriados, no entanto para combustíveis novos como o biodiesel, sendo mais complexos do ponto de vista das interacções intermoleculares com formação de dipolos e pontes de hidrogénio, são necessários modelos termodinâmicos mais complexos para descrever essas interacções. Neste trabalho a CPA EoS (Cubic-Plus-Association Equation of State) será desenvolvida de modo a permitir uma descrição adequada dos equilíbrios líquido-vapor e líquido-líquido para uma serie de sistemas binários e multicomponentes contendo água, ácidos gordos, ésteres de ácidos gordos, glicerol e álcoois.
Resumo:
O desenvolvimento de equipamentos de descodificação massiva de genomas veio aumentar de uma forma brutal os dados disponíveis. No entanto, para desvendarmos informação relevante a partir da análise desses dados é necessário software cada vez mais específico, orientado para determinadas tarefas que auxiliem o investigador a obter conclusões o mais rápido possível. É nesse campo que a bioinformática surge, como aliado fundamental da biologia, uma vez que tira partido de métodos e infra-estruturas computacionais para desenvolver algoritmos e aplicações informáticas. Por outro lado, na maior parte das vezes, face a novas questões biológicas é necessário responder com novas soluções específicas, pelo que o desenvolvimento de aplicações se torna um desafio permanente para os engenheiros de software. Foi nesse contexto que surgiram os principais objectivos deste trabalho, centrados na análise de tripletos e de repetições em estruturas primárias de DNA. Para esse efeito, foram propostos novos métodos e novos algoritmos que permitirem o processamento e a obtenção de resultados sobre grandes volumes de dados. Ao nível da análise de tripletos de codões e de aminoácidos foi proposto um sistema concebido para duas vertentes: por um lado o processamento dos dados, por outro a disponibilização na Web dos dados processados, através de um mecanismo visual de composição de consultas. Relativamente à análise de repetições, foi proposto e desenvolvido um sistema para identificar padrões de nucleótidos e aminoácidos repetidos em sequências específicas, com particular aplicação em genes ortólogos. As soluções propostas foram posteriormente validadas através de casos de estudo que atestam a mais-valia do trabalho desenvolvido.
Resumo:
Do ponto de vista da política económica, existe a possibilidade de utilizar a receita dos impostos ambientais para baixar os impostos sobre o trabalho, promovendo assim o emprego. Esta oportunidade surge na literatura como forma dos países industrializados responderem a um duplo desafio: um crescente nível de poluição e um decrescente nível de emprego. Alguns países tomaram já decisões no sentido de alcançar o “duplo dividendo”: melhorias ambientais e diminuição do desemprego. Os resultados teóricos, na sua maioria cépticos em relação à verificação do segundo dividendo, são substancialmente contrariados por uma série de estudos que utilizam modelos de equilíbrio geral. Pretendese com este trabalho fazer uma simulação para a economia portuguesa de uma reforma fiscal ambiental com as características referidas e a verificação da existência do “duplo dividendo”, através de um modelo computacional de equilíbrio geral. Para além disso, é feita uma análise dos impactos do Mercado Europeu de Licenças de Emissão, ao nível sectorial e regional, em Portugal, utilizando dados microeconómicos, com o objectivo de estudar as consequências ao nível das trasacções entre sectores e efeitos distributivos entre regiões.
Resumo:
A distribui ção de um sinal relógio, com elevada precisão espacial (baixo skew) e temporal (baixo jitter ), em sistemas sí ncronos de alta velocidade tem-se revelado uma tarefa cada vez mais demorada e complexa devido ao escalonamento da tecnologia. Com a diminuição das dimensões dos dispositivos e a integração crescente de mais funcionalidades nos Circuitos Integrados (CIs), a precisão associada as transições do sinal de relógio tem sido cada vez mais afectada por varia ções de processo, tensão e temperatura. Esta tese aborda o problema da incerteza de rel ogio em CIs de alta velocidade, com o objetivo de determinar os limites do paradigma de desenho sí ncrono. Na prossecu ção deste objectivo principal, esta tese propõe quatro novos modelos de incerteza com âmbitos de aplicação diferentes. O primeiro modelo permite estimar a incerteza introduzida por um inversor est atico CMOS, com base em parâmetros simples e su cientemente gen éricos para que possa ser usado na previsão das limitações temporais de circuitos mais complexos, mesmo na fase inicial do projeto. O segundo modelo, permite estimar a incerteza em repetidores com liga ções RC e assim otimizar o dimensionamento da rede de distribui ção de relógio, com baixo esfor ço computacional. O terceiro modelo permite estimar a acumula ção de incerteza em cascatas de repetidores. Uma vez que este modelo tem em considera ção a correla ção entre fontes de ruí do, e especialmente util para promover t ecnicas de distribui ção de rel ogio e de alimentação que possam minimizar a acumulação de incerteza. O quarto modelo permite estimar a incerteza temporal em sistemas com m ultiplos dom ínios de sincronismo. Este modelo pode ser facilmente incorporado numa ferramenta autom atica para determinar a melhor topologia para uma determinada aplicação ou para avaliar a tolerância do sistema ao ru ído de alimentação. Finalmente, usando os modelos propostos, são discutidas as tendências da precisão de rel ogio. Conclui-se que os limites da precisão do rel ogio são, em ultima an alise, impostos por fontes de varia ção dinâmica que se preveem crescentes na actual l ogica de escalonamento dos dispositivos. Assim sendo, esta tese defende a procura de solu ções em outros ní veis de abstração, que não apenas o ní vel f sico, que possam contribuir para o aumento de desempenho dos CIs e que tenham um menor impacto nos pressupostos do paradigma de desenho sí ncrono.
Resumo:
A optimização estrutural é uma temática antiga em engenharia. No entanto, com o crescimento do método dos elementos finitos em décadas recentes, dá origem a um crescente número de aplicações. A optimização topológica, especificamente, surge associada a uma fase de definição de domínio efectivo de um processo global de optimização estrutural. Com base neste tipo de optimização, é possível obter a distribuição óptima de material para diversas aplicações e solicitações. Os materiais compósitos e alguns materiais celulares, em particular, encontram-se entre os materiais mais proeminentes dos nossos dias, em termos das suas aplicações e de investigação e desenvolvimento. No entanto, a sua estrutura potencialmente complexa e natureza heterogénea acarretam grandes complexidades, tanto ao nível da previsão das suas propriedades constitutivas quanto na obtenção das distribuições óptimas de constituintes. Procedimentos de homogeneização podem fornecer algumas respostas em ambos os casos. Em particular, a homogeneização por expansão assimptótica pode ser utilizada para determinar propriedades termomecânicas efectivas e globais a partir de volumes representativos, de forma flexível e independente da distribuição de constituintes. Além disso, integra processos de localização e fornece informação detalhada acerca de sensibilidades locais em metodologias de optimização multiescala. A conjugação destas áreas pode conduzir a metodologias de optimização topológica multiescala, nas quais de procede à obtenção não só de estruturas óptimas mas também das distribuições ideais de materiais constituintes. Os problemas associados a estas abordagens tendem, no entanto, a exigir recursos computacionais assinaláveis, criando muitas vezes sérias limitações à exequibilidade da sua resolução. Neste sentido, técnicas de cálculo paralelo e distribuído apresentam-se como uma potencial solução. Ao dividir os problemas por diferentes unidades memória e de processamento, é possível abordar problemas que, de outra forma, seriam proibitivos. O principal foco deste trabalho centra-se na importância do desenvolvimento de procedimentos computacionais para as aplicações referidas. Adicionalmente, estas conduzem a diversas abordagens alternativas na procura simultânea de estruturas e materiais para responder a aplicações termomecânicas. Face ao exposto, tudo isto é integrado numa plataforma computacional de optimização multiobjectivo multiescala em termoelasticidade, desenvolvida e implementada ao longo deste trabalho. Adicionalmente, o trabalho é complementado com a montagem e configuração de um cluster do tipo Beowulf, assim como com o desenvolvimento do código com vista ao cálculo paralelo e distribuído.