896 resultados para Simulação de defeitos
Resumo:
Esta tese investiga a caracterização (e modelação) de dispositivos que realizam o interface entre os domínios digital e analógico, tal como os buffers de saída dos circuitos integrados (CI). Os terminais sem fios da atualidade estão a ser desenvolvidos tendo em vista o conceito de rádio-definido-por-software introduzido por Mitola. Idealmente esta arquitetura tira partido de poderosos processadores e estende a operação dos blocos digitais o mais próximo possível da antena. Neste sentido, não é de estranhar que haja uma crescente preocupação, no seio da comunidade científica, relativamente à caracterização dos blocos que fazem o interface entre os domínios analógico e digital, sendo os conversores digital-analógico e analógico-digital dois bons exemplos destes circuitos. Dentro dos circuitos digitais de alta velocidade, tais como as memórias Flash, um papel semelhante é desempenhado pelos buffers de saída. Estes realizam o interface entre o domínio digital (núcleo lógico) e o domínio analógico (encapsulamento dos CI e parasitas associados às linhas de transmissão), determinando a integridade do sinal transmitido. Por forma a acelerar a análise de integridade do sinal, aquando do projeto de um CI, é fundamental ter modelos que são simultaneamente eficientes (em termos computacionais) e precisos. Tipicamente a extração/validação dos modelos para buffers de saída é feita usando dados obtidos da simulação de um modelo detalhado (ao nível do transístor) ou a partir de resultados experimentais. A última abordagem não envolve problemas de propriedade intelectual; contudo é raramente mencionada na literatura referente à caracterização de buffers de saída. Neste sentido, esta tese de Doutoramento foca-se no desenvolvimento de uma nova configuração de medição para a caracterização e modelação de buffers de saída de alta velocidade, com a natural extensão aos dispositivos amplificadores comutados RF-CMOS. Tendo por base um procedimento experimental bem definido, um modelo estado-da-arte é extraído e validado. A configuração de medição desenvolvida aborda não apenas a integridade dos sinais de saída mas também do barramento de alimentação. Por forma a determinar a sensibilidade das quantias estimadas (tensão e corrente) aos erros presentes nas diversas variáveis associadas ao procedimento experimental, uma análise de incerteza é também apresentada.
Resumo:
Ao longo das últimas décadas, a micromoldação (u-moldação) por injeção de termoplásticos ganhou um lugar de destaque no mercado de equipamentos eletrónicos e de uma ampla gama de componentes mecânicos. No entanto, quando o tamanho do componente diminui, os pressupostos geralmente aceites na moldação por injeção convencional deixam de ser válidos para descrever o comportamento reológico e termomecânico do polímero na microimpressão. Por isso, a compreensão do comportamento dinâmico do polímero à escala micro bem como da sua caraterização, análise e previsão das propriedades mecânicas exige uma investigação mais alargada. O objetivo principal deste programa doutoral passa por uma melhor compreensão do fenómeno físico intrínseco ao processo da μ-moldação por injeção. Para cumprir com o objetivo estabelecido, foi efetuado um estudo paramétrico do processo de μ-moldação por injeção, cujos resultados foram comparados com os resultados obtidos por simulação numérica. A caracterização dinâmica mecânica das μ-peças foi efetuada com o objetivo de recolher os dados necessários para a previsão do desempenho mecânico das mesmas, a longo prazo. Finalmente, depois da calibração do modelo matemático do polímero, foram realizadas análises estruturais com o intuito de prever o desempenho mecânico das μ-peças no longo prazo. Verificou-se que o desempenho mecânico das μ-peças pode ser significativamente afetado pelas tensões residuais de origem mecânica e térmica. Estas últimas, resultantes do processo de fabrico e das condições de processamento, por isso, devem ser consideradas na previsão do desempenho mecânico e do tempo de serviço das u-moldações.
Resumo:
Apesar das recentes inovações tecnológicas, o setor dos transportes continua a exercer impactes significativos sobre a economia e o ambiente. Com efeito, o sucesso na redução das emissões neste setor tem sido inferior ao desejável. Isto deve-se a diferentes fatores como a dispersão urbana e a existência de diversos obstáculos à penetração no mercado de tecnologias mais limpas. Consequentemente, a estratégia “Europa 2020” evidencia a necessidade de melhorar a eficiência no uso das atuais infraestruturas rodoviárias. Neste contexto, surge como principal objetivo deste trabalho, a melhoria da compreensão de como uma escolha de rota adequada pode contribuir para a redução de emissões sob diferentes circunstâncias espaciais e temporais. Simultaneamente, pretende-se avaliar diferentes estratégias de gestão de tráfego, nomeadamente o seu potencial ao nível do desempenho e da eficiência energética e ambiental. A integração de métodos empíricos e analíticos para avaliação do impacto de diferentes estratégias de otimização de tráfego nas emissões de CO2 e de poluentes locais constitui uma das principais contribuições deste trabalho. Esta tese divide-se em duas componentes principais. A primeira, predominantemente empírica, baseou-se na utilização de veículos equipados com um dispositivo GPS data logger para recolha de dados de dinâmica de circulação necessários ao cálculo de emissões. Foram percorridos aproximadamente 13200 km em várias rotas com escalas e características distintas: área urbana (Aveiro), área metropolitana (Hampton Roads, VA) e um corredor interurbano (Porto-Aveiro). A segunda parte, predominantemente analítica, baseou-se na aplicação de uma plataforma integrada de simulação de tráfego e emissões. Com base nesta plataforma, foram desenvolvidas funções de desempenho associadas a vários segmentos das redes estudadas, que por sua vez foram aplicadas em modelos de alocação de tráfego. Os resultados de ambas as perspetivas demonstraram que o consumo de combustível e emissões podem ser significativamente minimizados através de escolhas apropriadas de rota e sistemas avançados de gestão de tráfego. Empiricamente demonstrou-se que a seleção de uma rota adequada pode contribuir para uma redução significativa de emissões. Foram identificadas reduções potenciais de emissões de CO2 até 25% e de poluentes locais até 60%. Através da aplicação de modelos de tráfego demonstrou-se que é possível reduzir significativamente os custos ambientais relacionados com o tráfego (até 30%), através da alteração da distribuição dos fluxos ao longo de um corredor com quatro rotas alternativas. Contudo, apesar dos resultados positivos relativamente ao potencial para a redução de emissões com base em seleções de rotas adequadas, foram identificadas algumas situações de compromisso e/ou condicionantes que devem ser consideradas em futuros sistemas de eco navegação. Entre essas condicionantes importa salientar que: i) a minimização de diferentes poluentes pode implicar diferentes estratégias de navegação, ii) a minimização da emissão de poluentes, frequentemente envolve a escolha de rotas urbanas (em áreas densamente povoadas), iii) para níveis mais elevados de penetração de dispositivos de eco-navegação, os impactos ambientais em todo o sistema podem ser maiores do que se os condutores fossem orientados por dispositivos tradicionais focados na minimização do tempo de viagem. Com este trabalho demonstrou-se que as estratégias de gestão de tráfego com o intuito da minimização das emissões de CO2 são compatíveis com a minimização do tempo de viagem. Por outro lado, a minimização de poluentes locais pode levar a um aumento considerável do tempo de viagem. No entanto, dada a tendência de redução nos fatores de emissão dos poluentes locais, é expectável que estes objetivos contraditórios tendam a ser minimizados a médio prazo. Afigura-se um elevado potencial de aplicação da metodologia desenvolvida, seja através da utilização de dispositivos móveis, sistemas de comunicação entre infraestruturas e veículos e outros sistemas avançados de gestão de tráfego.
Resumo:
A integridade do sinal em sistemas digitais interligados de alta velocidade, e avaliada através da simulação de modelos físicos (de nível de transístor) é custosa de ponto vista computacional (por exemplo, em tempo de execução de CPU e armazenamento de memória), e exige a disponibilização de detalhes físicos da estrutura interna do dispositivo. Esse cenário aumenta o interesse pela alternativa de modelação comportamental que descreve as características de operação do equipamento a partir da observação dos sinais eléctrico de entrada/saída (E/S). Os interfaces de E/S em chips de memória, que mais contribuem em carga computacional, desempenham funções complexas e incluem, por isso, um elevado número de pinos. Particularmente, os buffers de saída são obrigados a distorcer os sinais devido à sua dinâmica e não linearidade. Portanto, constituem o ponto crítico nos de circuitos integrados (CI) para a garantia da transmissão confiável em comunicações digitais de alta velocidade. Neste trabalho de doutoramento, os efeitos dinâmicos não-lineares anteriormente negligenciados do buffer de saída são estudados e modulados de forma eficiente para reduzir a complexidade da modelação do tipo caixa-negra paramétrica, melhorando assim o modelo standard IBIS. Isto é conseguido seguindo a abordagem semi-física que combina as características de formulação do modelo caixa-negra, a análise dos sinais eléctricos observados na E/S e propriedades na estrutura física do buffer em condições de operação práticas. Esta abordagem leva a um processo de construção do modelo comportamental fisicamente inspirado que supera os problemas das abordagens anteriores, optimizando os recursos utilizados em diferentes etapas de geração do modelo (ou seja, caracterização, formulação, extracção e implementação) para simular o comportamento dinâmico não-linear do buffer. Em consequência, contributo mais significativo desta tese é o desenvolvimento de um novo modelo comportamental analógico de duas portas adequado à simulação em overclocking que reveste de um particular interesse nas mais recentes usos de interfaces de E/S para memória de elevadas taxas de transmissão. A eficácia e a precisão dos modelos comportamentais desenvolvidos e implementados são qualitativa e quantitativamente avaliados comparando os resultados numéricos de extracção das suas funções e de simulação transitória com o correspondente modelo de referência do estado-da-arte, IBIS.
Resumo:
As espumas de alumínio são materiais ultraleves, o que as torna atractivas para um largo espectro de aplicações comerciais na área da defesa, na indústria automóvel e aeroespacial, entre outras. Actualmente, há um grande interesse na utilização de espumas de alumínio em componentes estruturais ultraleves, incorporados em sistemas de absorção de energia para protecção contra o impacto. O recurso à simulação numérica para resolver problemas de engenharia em várias áreas é cada vez mais comum. A modelação numérica dos materiais assume vital importância quando o problema envolve a análise de processos tecnológicos como, por exemplo, a conformação plástica de materiais, ou a análise de estruturas. Deste modo, torna-se imprescindível garantir que a modelação dos materiais é de tal forma rigorosa que permite simular o melhor possível o seu comportamento real nas condições concretas da análise a realizar. A forma mais comum de garantir o rigor dos modelos utilizados é a validação dos modelos numéricos tendo por base resultados experimentais. Neste trabalho, fez-se a caracterização do comportamento mecânico das espumas de alumínio com nome comercial ALPORAS!, obtidas pelo processo de fabrico denominado expansão directa do metal fundido por adição de um agente expansor. Esta caracterização consistiu num conjunto de ensaios experimentais quer no regime quasi-estático, quer no regime dinâmico. No regime quasi-estático realizaram-se ensaios de compressão uniaxial e de compressão multiaxial. Para a caracterização no regime dinâmico foram realizados ensaios em barras de Hopkinson de polimetil-metacrilato (PMMA). Com base nos resultados experimentais obtidos determinaram-se os parâmetros dos dois modelos constitutivos para espumas metálicas implementados no programa comercial Abaqus™/Explicit. Estes modelos, e os respectivos parâmetros determinados, foram validados reproduzindo numericamente alguns ensaios experimentais quasi-estáticos e dinâmicos. Assim, verificou-se a adequabilidade dos modelos em diversas condições quer em termos de esforços quer em termos de regime de taxa de deformação Por último, desenvolveu-se uma estrutura inovadora para absorção de energia durante um impacto, constituída por componentes perfilados em liga de alumínio e por componentes em espumas de alumínio. Esta estrutura foi testada exclusivamente com recurso à simulação numérica, utilizando os modelos constitutivos validados anteriormente.
Resumo:
Nos últimos anos, a Optoelectrónica tem sido estabelecida como um campo de investigação capaz de conduzir a novas soluções tecnológicas. As conquistas abundantes no campo da óptica e lasers, bem como em comunicações ópticas têm sido de grande importância e desencadearam uma série de inovações. Entre o grande número de componentes ópticos existentes, os componentes baseados em fibra óptica são principalmente relevantes devido à sua simplicidade e à elevada de transporte de dados da fibra óptica. Neste trabalho foi focado um destes componentes ópticos: as redes de difracção em fibra óptica, as quais têm propriedades ópticas de processamento únicas. Esta classe de componentes ópticos é extremamente atraente para o desenvolvimento de dispositivos de comunicações ópticas e sensores. O trabalho começou com uma análise teórica aplicada a redes em fibra e foram focados os métodos de fabricação de redes em fibra mais utilizados. A inscrição de redes em fibra também foi abordado neste trabalho, onde um sistema de inscrição automatizada foi implementada para a fibra óptica de sílica, e os resultados experimentais mostraram uma boa aproximação ao estudo de simulação. Também foi desenvolvido um sistema de inscrição de redes de Bragg em fibra óptica de plástico. Foi apresentado um estudo detalhado da modulação acústico-óptica em redes em fibra óptica de sílica e de plástico. Por meio de uma análise detalhada dos modos de excitação mecânica aplicadas ao modulador acústico-óptico, destacou-se que dois modos predominantes de excitação acústica pode ser estabelecidos na fibra óptica, dependendo da frequência acústica aplicada. Através dessa caracterização, foi possível desenvolver novas aplicações para comunicações ópticas. Estudos e implementação de diferentes dispositivos baseados em redes em fibra foram realizados, usando o efeito acústico-óptico e o processo de regeneração em fibra óptica para várias aplicações tais como rápido multiplexador óptico add-drop, atraso de grupo sintonizável de redes de Bragg, redes de Bragg com descolamento de fase sintonizáveis, método para a inscrição de redes de Bragg com perfis complexos, filtro sintonizável para equalização de ganho e filtros ópticos notch ajustáveis.
Resumo:
O conceito de bioatividade surgiu com a descoberta, no início década de 70, de que algumas composições vítreas (ex.: 45S5 Bioglass®), tinham a capacidade de estabelecer uma ligação direta e estável com os tecidos vivos. Desde então, este grupo de biomateriais tem vindo a receber uma atenção cada vez maior por parte dos investigadores, tendo como motivação principal a busca de novas composições com propriedades mais adequadas para a regeneração óssea do que as composições comercialmente disponíveis. Na presente tese, avaliou-se o desempenho in vivo de duas composições de biovidro do sistema diopsite (CaMgSi2O6) - fluorapatite (Ca5(PO4)3F) - fosfato tricálcico (3CaO•P2O5) aplicados em defeitos ósseos de tamanho não crítico em carneiros, tendo também sido avaliada a biocompatibilidade dos biomateriais através da aplicação subcutânea de placas dos mesmos vidros. O trabalho realizado também incluiu a avaliação dos materiais in vitro, através de estudos de biomineralização em fluido corporal simulado e estudos de degradação. Os biomateriais foram comparados com o biovidro 45S5 Bioglass®, sendo que em termos de bioatividade in vitro, as duas composições investigadas apresentaram um maior potencial bioativo, levando à formação de uma camada superficial de hidroxiapatite carbonatada, em contraste com a formação de calcite na composição comercial, sob condições idênticas. Os testes de degradação in vitro também apresentaram resultados melhores para as duas novas composições, traduzidos por variações de pH e taxas de degradação menores do que os observados no caso do 45S5 Bioglass®. A avaliação in vivo dos implantes subcutâneos permitiu apurar a biocompatibilidade dos biovidros testados, tendo sido considerados ligeiramente irritantes. Os resultados relativos à aplicação dos pós de vidro bioativo nos defeitos ósseos não foram obtidos em tempo útil de modo a poderem ser incluídos na presente tese. Considerando o desempenho in vitro e a biocompatibilidade dos materiais estudados, estes podem apontar-se como materiais promissores para aplicações em engenharia de tecidos, particularmente na regeneração do tecido ósseo.
Resumo:
Os vidros bioativos constituem um material apropriado para o preenchimento de defeitos ósseos, como alternativa a enxertos autólogos, uma vez que, quando expostos a fluidos fisiológicos promovem a formação de uma ligação com o tecido ósseo sob a forma de uma camada de hidroxiapatite carbonatada. No presente trabalho caracterizaram-se vidros bioativos sem conteúdo alcalino, cuja composição incide no sistema binário de diópsido (CaMgSi2O6) e fosfato de tricálcio (3CaO·P2O5), em função da sua molhabilidade, carga superficial, perfil de degradação, carácter bioativo em fluido fisiológico simulado e do seu comportamento in vitro em contacto com células estaminais mesenquimais humanas (hMSCs). A medição do ângulo de contacto inicial de água sobre os vidros demonstrou o carácter hidrofílico dos vidros investigados. A determinação do potencial zeta mostrou que a carga superficial dos vidros é negativa, sendo mais negativa na composição Di-70. O estudo da biodegradação dos vidros, efetuado através da sua imersão em Tris-HCl, permitiu concluir que a perda de peso dos vidros foi reduzida. A caraterização in vitro em meio acelular foi efetuada através da imersão dos vidros numa solução de fluido fisiológico simulado (SBF) e verificou-se que estes possuem capacidade de formar uma camada de hidroxiapatite carbonatada à sua superfície após 7 dias, detetável por XRD, FTIR e SEM/EDS, sugerindo que este conjunto de vidros é potencialmente bioativo, e poderá estimular a proliferação e diferenciação celular. A resposta das hMSCs em cultura aos vidros bioativos foi avaliada em termos de atividade metabólica, morfologia, viabilidade, proliferação e diferenciação osteogénica e conclui-se que os biovidros Di-60 e Di-70 poderão constituir um suporte viável para a proliferação e diferenciação de hMSCs.
Resumo:
The Minho River, situated 30 km south of the Rias Baixas is the most important freshwater source flowing into the Western Galician Coast (NW of the Iberian Peninsula). This discharge is important to determine the hydrological patterns adjacent to its mouth, particularly close to the Galician coastal region. The buoyancy generated by the Minho plume can flood the Rias Baixas for long periods, reversing the normal estuarine density gradients. Thus, it becomes important to analyse its dynamics as well as the thermohaline patterns of the areas affected by the freshwater spreading. Thus, the main aim of this work was to study the propagation of the Minho estuarine plume to the Rias Baixas, establishing the conditions in which this plume affects the circulation and hydrographic features of these coastal systems, through the development and application of the numerical model MOHID. For this purpose, the hydrographic features of the Rias Baixas mouths were studied. It was observed that at the northern mouths, due to their shallowness, the heat fluxes between the atmosphere and ocean are the major forcing, influencing the water temperature, while at the southern mouths the influence of the upwelling events and the Minho River discharge were more frequent. The salinity increases from south to north, revealing that the observed low values may be caused by the Minho River freshwater discharge. An assessment of wind data along the Galician coast was carried out, in order to evaluate the applicability of the study to the dispersal of the Minho estuarine plume. Firstly, a comparative analysis between winds obtained from land meteorological stations and offshore QuikSCAT satellite were performed. This comparison revealed that satellite data constitute a good approach to study wind induced coastal phenomena. However, since the numerical model MOHID requires wind data with high spatial and temporal resolution close to the coast, results of the forecasted model WRF were added to the previous study. The analyses revealed that the WRF model data is a consistent tool to obtain representative wind data near the coast, showing good results when comparing with in situ wind observations from oceanographic buoys. To study the influence of the Minho buoyant discharge influence on the Rias Baixas, a set of three one-way nested models was developed and implemented, using the numerical model MOHID. The first model domain is a barotropic model and includes the whole Iberian Peninsula coast. The second and third domains are baroclinic models, where the second domain is a coarse representation of the Rias Baixas and adjacent coastal area, while the third includes the same area with a higher resolution. A bi-dimensional model was also implemented in the Minho estuary, in order to quantify the flow (and its properties) that the estuary injects into the ocean. The chosen period for the Minho estuarine plume propagation validation was the spring of 1998, since a high Minho River discharge was reported, as well as favourable wind patterns to advect the estuarine plume towards the Rias Baixas, and there was field data available to compare with the model predictions. The obtained results show that the adopted nesting methodology was successful implemented. Model predictions reproduce accurately the hydrodynamics and thermohaline patterns on the Minho estuary and Rias Baixas. The importance of the Minho river discharge and the wind forcing in the event of May 1998 was also studied. The model results showed that a continuous moderate Minho River discharge combined with southerly winds is enough to reverse the Rias Baixas circulation pattern, reducing the importance of the occurrence of specific events of high runoff values. The conditions in which the estuarine plume Minho affects circulation and hydrography of the Rias Baixas were evaluated. The numerical results revealed that the Minho estuarine plume responds rapidly to wind variations and is also influenced by the bathymetry and morphology of the coastline. Without wind forcing, the plume expands offshore, creating a bulge in front of the river mouth. When the wind blows southwards, the main feature is the offshore extension of the plume. Otherwise, northward wind spreads the river plume towards the Rias Baixas. The plume is confined close to the coast, reaching the Rias Baixas after 1.5 days. However, for Minho River discharges higher than 800 m3 s-1, the Minho estuarine plume reverses the circulation patterns in the Rias Baixas. It was also observed that the wind stress and Minho River discharge are the most important factors influencing the size and shape of the Minho estuarine plume. Under the same conditions, the water exchange between Rias Baixas was analysed following the trajectories particles released close to the Minho River mouth. Over 5 days, under Minho River discharges higher than 2100 m3 s-1 combined with southerly winds of 6 m s-1, an intense water exchange between Rias was observed. However, only 20% of the particles found in Ria de Pontevedra come directly from the Minho River. In summary, the model application developed in this study contributed to the characterization and understanding of the influence of the Minho River on the Rias Baixas circulation and hydrography, highlighting that this methodology can be replicated to other coastal systems.
Resumo:
Portugal é um dos países europeus com melhor cobertura espacial e populacional de rede de autoestradas (5º entre os 27 da UE). O acentuado crescimento desta rede nos últimos anos leva a que seja necessária a utilização de metodologias de análise e avaliação da qualidade do serviço que é prestado nestas infraestruturas, relativamente às condições de circulação. Usualmente, a avaliação da qualidade de serviço é efetuada por intermédio de metodologias internacionalmente aceites, das quais se destaca a preconizada no Highway Capacity Manual (HCM). É com esta última metodologia que são habitualmente determinados em Portugal, os níveis de serviço nas diversas componentes de uma autoestrada (secções correntes, ramos de ligação e segmentos de entrecruzamento). No entanto, a sua transposição direta para a realidade portuguesa levanta algumas reservas, uma vez que os elementos que compõem o ambiente rodoviário (infraestrutura, veículo e condutor) são distintos dos da realidade norte-americana para a qual foi desenvolvida. Assim, seria útil para os atores envolvidos no setor rodoviário dispor de metodologias desenvolvidas para as condições portuguesas, que possibilitassem uma caracterização mais realista da qualidade de serviço ao nível da operação em autoestradas. No entanto, importa referir que o desenvolvimento de metodologias deste género requer uma quantidade muito significativa de dados geométricos e de tráfego, o que acarreta uma enorme necessidade de meios, quer humanos, quer materiais. Esta abordagem é assim de difícil execução, sendo por isso necessário recorrer a metodologias alternativas para a persecução deste objetivo. Ultimamente tem-se verificado o uso cada vez mais generalizado de modelos de simulação microscópica de tráfego, que simulando o movimento individual dos veículos num ambiente virtual permitem realizar análises de tráfego. A presente dissertação apresenta os resultados obtidos no desenvolvimento de uma metodologia que procura recriar, através de simuladores microscópicos de tráfego, o comportamento das correntes de tráfego em secções correntes de autoestradas com o intuito de, posteriormente, se proceder à adaptação da metodologia preconizada no HCM (na sua edição de 2000) à realidade portuguesa. Para tal, com os simuladores microscópicos utilizados (AIMSUN e VISSIM) procurou-se reproduzir as condições de circulação numa autoestrada portuguesa, de modo a que fosse possível analisar as alterações sofridas no comportamento das correntes de tráfego após a modificação dos principais fatores geométricos e de tráfego envolvidos na metodologia do HCM 2000. Para o efeito, realizou-se uma análise de sensibilidade aos simuladores de forma a avaliar a sua capacidade para representar a influência desses fatores, com vista a, numa fase posterior, se quantificar o seu efeito para a realidade nacional e dessa forma se proceder à adequação da referida metodologia ao contexto português. Em resumo, o presente trabalho apresenta as principais vantagens e limitações dos microssimuladores AIMSUN e VISSIM na modelação do tráfego de uma autoestrada portuguesa, tendo-se concluído que estes simuladores não são capazes de representar de forma explícita alguns dos fatores considerados na metodologia do HCM 2000, o que impossibilita a sua utilização como ferramenta de quantificação dos seus efeitos e consequentemente inviabiliza a adaptação dessa metodologia à realidade nacional. São, no entanto, referidas algumas indicações de como essas limitações poderão vir a ser ultrapassadas, com vista à consecução futura dessa adequação.
Resumo:
Viscoelastic treatments are one of the most efficient treatments, as far as passive damping is concerned, particularly in the case of thin and light structures. In this type of treatment, part of the strain energy generated in the viscoelastic material is dissipated to the surroundings, in the form of heat. A layer of viscoelastic material is applied to a structure in an unconstrained or constrained configuration, the latter proving to be the most efficient arrangement. This is due to the fact that the relative movement of both the host and constraining layers cause the viscoelastic material to be subjected to a relatively high strain energy. There are studies, however, that claim that the partial application of the viscoelastic material is just as efficient, in terms of economic costs or any other form of treatment application costs. The application of patches of material in specific and selected areas of the structure, thus minimising the extension of damping material, results in an equally efficient treatment. Since the damping mechanism of a viscoelastic material is based on the dissipation of part of the strain energy, the efficiency of the partial treatment can be correlated to the modal strain energy of the structure. Even though the results obtained with this approach in various studies are considered very satisfactory, an optimisation procedure is deemed necessary. In order to obtain optimum solutions, however, time consuming numerical simulations are required. The optimisation process to use the minimum amount of viscoelastic material is based on an evolutionary geometry re-design and calculation of the modal damping, making this procedure computationally costly. To avert this disadvantage, this study uses adaptive layerwise finite elements and applies Genetic Algorithms in the optimisation process.
Resumo:
The expectations of citizens from the Information Technologies (ITs) are increasing as the ITs have become integral part of our society, serving all kinds of activities whether professional, leisure, safety-critical applications or business. Hence, the limitations of the traditional network designs to provide innovative and enhanced services and applications motivated a consensus to integrate all services over packet switching infrastructures, using the Internet Protocol, so as to leverage flexible control and economical benefits in the Next Generation Networks (NGNs). However, the Internet is not capable of treating services differently while each service has its own requirements (e.g., Quality of Service - QoS). Therefore, the need for more evolved forms of communications has driven to radical changes of architectural and layering designs which demand appropriate solutions for service admission and network resources control. This Thesis addresses QoS and network control issues, aiming to improve overall control performance in current and future networks which classify services into classes. The Thesis is divided into three parts. In the first part, we propose two resource over-reservation algorithms, a Class-based bandwidth Over-Reservation (COR) and an Enhanced COR (ECOR). The over-reservation means reserving more bandwidth than a Class of Service (CoS) needs, so the QoS reservation signalling rate is reduced. COR and ECOR allow for dynamically defining over-reservation parameters for CoSs based on network interfaces resource conditions; they aim to reduce QoS signalling and related overhead without incurring CoS starvation or waste of bandwidth. ECOR differs from COR by allowing for optimizing control overhead minimization. Further, we propose a centralized control mechanism called Advanced Centralization Architecture (ACA), that uses a single state-full Control Decision Point (CDP) which maintains a good view of its underlying network topology and the related links resource statistics on real-time basis to control the overall network. It is very important to mention that, in this Thesis, we use multicast trees as the basis for session transport, not only for group communication purposes, but mainly to pin packets of a session mapped to a tree to follow the desired tree. Our simulation results prove a drastic reduction of QoS control signalling and the related overhead without QoS violation or waste of resources. Besides, we provide a generic-purpose analytical model to assess the impact of various parameters (e.g., link capacity, session dynamics, etc.) that generally challenge resource overprovisioning control. In the second part of this Thesis, we propose a decentralization control mechanism called Advanced Class-based resource OverpRovisioning (ACOR), that aims to achieve better scalability than the ACA approach. ACOR enables multiple CDPs, distributed at network edge, to cooperate and exchange appropriate control data (e.g., trees and bandwidth usage information) such that each CDP is able to maintain a good knowledge of the network topology and the related links resource statistics on real-time basis. From scalability perspective, ACOR cooperation is selective, meaning that control information is exchanged dynamically among only the CDPs which are concerned (correlated). Moreover, the synchronization is carried out through our proposed concept of Virtual Over-Provisioned Resource (VOPR), which is a share of over-reservations of each interface to each tree that uses the interface. Thus, each CDP can process several session requests over a tree without requiring synchronization between the correlated CDPs as long as the VOPR of the tree is not exhausted. Analytical and simulation results demonstrate that aggregate over-reservation control in decentralized scenarios keep low signalling without QoS violations or waste of resources. We also introduced a control signalling protocol called ACOR Protocol (ACOR-P) to support the centralization and decentralization designs in this Thesis. Further, we propose an Extended ACOR (E-ACOR) which aggregates the VOPR of all trees that originate at the same CDP, and more session requests can be processed without synchronization when compared with ACOR. In addition, E-ACOR introduces a mechanism to efficiently track network congestion information to prevent unnecessary synchronization during congestion time when VOPRs would exhaust upon every session request. The performance evaluation through analytical and simulation results proves the superiority of E-ACOR in minimizing overall control signalling overhead while keeping all advantages of ACOR, that is, without incurring QoS violations or waste of resources. The last part of this Thesis includes the Survivable ACOR (SACOR) proposal to support stable operations of the QoS and network control mechanisms in case of failures and recoveries (e.g., of links and nodes). The performance results show flexible survivability characterized by fast convergence time and differentiation of traffic re-routing under efficient resource utilization i.e. without wasting bandwidth. In summary, the QoS and architectural control mechanisms proposed in this Thesis provide efficient and scalable support for network control key sub-systems (e.g., QoS and resource control, traffic engineering, multicasting, etc.), and thus allow for optimizing network overall control performance.
Resumo:
A modelação e análise de séries temporais de valores inteiros têm sido alvo de grande investigação e desenvolvimento nos últimos anos, com aplicações várias em diversas áreas da ciência. Nesta tese a atenção centrar-se-á no estudo na classe de modelos basedos no operador thinning binomial. Tendo como base o operador thinning binomial, esta tese focou-se na construção e estudo de modelos SETINAR(2; p(1); p(2)) e PSETINAR(2; 1; 1)T , modelos autorregressivos de valores inteiros com limiares autoinduzidos e dois regimes, admitindo que as inovações formam uma sucessão de variáveis independentes com distribuição de Poisson. Relativamente ao primeiro modelo analisado, o modelo SETINAR(2; p(1); p(2)), além do estudo das suas propriedades probabilísticas e de métodos, clássicos e bayesianos, para estimar os parâmetros, analisou-se a questão da seleção das ordens, no caso de elas serem desconhecidas. Com este objetivo consideraram-se algoritmos de Monte Carlo via cadeias de Markov, em particular o algoritmo Reversible Jump, abordando-se também o problema da seleção de modelos, usando metodologias clássica e bayesiana. Complementou-se a análise através de um estudo de simulação e uma aplicação a dois conjuntos de dados reais. O modelo PSETINAR(2; 1; 1)T proposto, é também um modelo autorregressivo com limiares autoinduzidos e dois regimes, de ordem unitária em cada um deles, mas apresentando uma estrutura periódica. Estudaram-se as suas propriedades probabilísticas, analisaram-se os problemas de inferência e predição de futuras observações e realizaram-se estudos de simulação.
Resumo:
The ever-growing energy consumption in mobile networks stimulated by the expected growth in data tra ffic has provided the impetus for mobile operators to refocus network design, planning and deployment towards reducing the cost per bit, whilst at the same time providing a signifi cant step towards reducing their operational expenditure. As a step towards incorporating cost-eff ective mobile system, 3GPP LTE-Advanced has adopted the coordinated multi-point (CoMP) transmission technique due to its ability to mitigate and manage inter-cell interference (ICI). Using CoMP the cell average and cell edge throughput are boosted. However, there is room for reducing energy consumption further by exploiting the inherent exibility of dynamic resource allocation protocols. To this end packet scheduler plays the central role in determining the overall performance of the 3GPP longterm evolution (LTE) based on packet-switching operation and provide a potential research playground for optimizing energy consumption in future networks. In this thesis we investigate the baseline performance for down link CoMP using traditional scheduling approaches, and subsequently go beyond and propose novel energy e fficient scheduling (EES) strategies that can achieve power-e fficient transmission to the UEs whilst enabling both system energy effi ciency gain and fairness improvement. However, ICI can still be prominent when multiple nodes use common resources with di fferent power levels inside the cell, as in the so called heterogeneous networks (Het- Net) environment. HetNets are comprised of two or more tiers of cells. The rst, or higher tier, is a traditional deployment of cell sites, often referred to in this context as macrocells. The lower tiers are termed small cells, and can appear as microcell, picocells or femtocells. The HetNet has attracted signiffi cant interest by key manufacturers as one of the enablers for high speed data at low cost. Research until now has revealed several key hurdles that must be overcome before HetNets can achieve their full potential: bottlenecks in the backhaul must be alleviated, as well as their seamless interworking with CoMP. In this thesis we explore exactly the latter hurdle, and present innovative ideas on advancing CoMP to work in synergy with HetNet deployment, complemented by a novel resource allocation policy for HetNet tighter interference management. As system level simulator has been used to analyze the proposed algorithm/protocols, and results have concluded that up to 20% energy gain can be observed.
Resumo:
Cherenkov Imaging counters require large photosensitive areas, capable of single photon detection, operating at stable high gains under radioactive backgrounds while standing high rates, providing a fast response and a good time resolution, and being insensitive to magnetic fields. The development of photon detectors based in Micro Pattern Gaseous detectors (MPGDs), represent a new generation of gaseous photon detectors. In particular, gaseous detectors based on stacked Thick-Gaseous Electron Multipliers (THGEMs), or THGEM based structures, coupled to a CsI photoconverter coating, seem to fulfil the requirements imposed by Cherenkov imaging counters. This work focus on the study of the THGEM-based detectors response as function of its geometrical parameters and applied voltages and electric fields, aiming a future upgrade of the Cherenkov Imaging counter RICH-1 of the COMPASS experiment at CERN SPS. Further studies to decrease the fraction of ions that reach the photocathode (Ion Back Flow – IBF) to minimize the ageing and maximize the photoelectron extraction are performed. Experimental studies are complemented with simulation results, also perfomed in this work.