896 resultados para Simulação de defeitos
Resumo:
O presente trabalho tem por objectivo o estudo de novos dispositivos fotónicos aplicados a sistemas de comunicações por fibra óptica e a sistemas de processamento de sinais RF. Os dispositivos apresentados baseiam-se em processamento de sinal linear e não linear. Dispositivos lineares ópticos tais como o interferómetro de Mach-Zehnder permitem adicionar sinais ópticos com pesos fixos ou sintonizáveis. Desta forma, este dispositivo pode ser usado respectivamente como um filtro óptico em amplitude com duas saídas complementares, ou, como um filtro óptico de resposta de fase sintonizável. O primeiro princípio de operação serve como base para um novo sistema fotónico de medição em tempo real da frequência de um sinal RF. O segundo princípio de operação é explorado num novo sistema fotónico de direccionamento do campo eléctrico radiado por um agregado de antenas, e também num novo compensador sintonizável de dispersão cromática. O processamento de sinal é não linear quando sinais ópticos são atrasados e posteriormente misturados entre si, em vez de serem linearmente adicionados. Este princípio de operação está por detrás da mistura de um sinal eléctrico com um sinal óptico, que por sua vez é a base de um novo sistema fotónico de medição em tempo real da frequência de um sinal RF. A mistura de sinais ópticos em meios não lineares permite uma operação eficiente numa grande largura espectral. Tal operação é usada para realizar conversão de comprimento de onda sintonizável. Um sinal óptico com multiplexagem no domínio temporal de elevada largura de banda é misturado com duas bombas ópticas não moduladas com base em processos não lineares paramétricos num guia de ondas de niobato de lítio com inversão periódica da polarização dos domínios ferroeléctricos. Noutro trabalho, uma bomba pulsada em que cada pulso tem um comprimento de onda sintonizável serve como base a um novo conversor de sinal óptico com multiplexagem no domínio temporal para um sinal óptico com multiplexagem no comprimento de onda. A bomba é misturada com o sinal óptico de entrada através de um processo não linear paramétrico numa fibra óptica com parâmetro não linear elevado. Todos os dispositivos fotónicos de processamento de sinal linear ou não linear propostos são experimentalmente validados. São também modelados teoricamente ou através de simulação, com a excepção dos que envolvem mistura de sinais ópticos. Uma análise qualitativa é suficiente nestes últimos dispositivos.
Resumo:
Low level protein synthesis errors can have profound effects on normal cell physiology and disease development, namely neurodegeneration, cancer and aging. The biology of errors introduced into proteins during mRNA translation, herein referred as mistranslation, is not yet fully understood. In order to shed new light into this biological phenomenon, we have engineered constitutive codon misreading in S. cerevisiae, using a mutant tRNA that misreads leucine CUG codons as serine, representing a 240 fold increase in mRNA translational error relative to typical physiological error (0.0001%). Our studies show that mistranslation induces autophagic activity, increases accumulation of insoluble proteins, production of reactive oxygen species, and morphological disruption of the mitochondrial network. Mistranslation also up-regulates the expression of the longevity gene PNC1, which is a regulator of Sir2p deacetylase activity. We show here that both PNC1 and SIR2 are involved in the regulation of autophagy induced by mistranslation, but not by starvation-induced autophagy. Mistranslation leads to P-body but not stress-granule assembly, down-regulates the expression of ribosomal protein genes and increases slightly the selective degradation of ribosomes (ribophagy). The study also indicates that yeast cells are much more resistant to mistranslation than expected and highlights the importance of autophagy in the cellular response to mistranslation. Morpho-functional alterations of the mitochondrial network are the most visible phenotype of mistranslation. Since most of the basic cellular processes are conserved between yeast and humans, this study reinforces the importance of yeast as a model system to study mistranslation and suggests that oxidative stress and accumulation of misfolded proteins arising from aberrant protein synthesis are important causes of the cellular degeneration observed in human diseases associated to mRNA mistranslation.
Resumo:
O presente trabalho centra-se no desenvolvimento e aplicação de sensores de aceleração ópticos, baseados em redes de Bragg gravadas em fibras ópticas, para monitorização da integridade estrutural de estruturas de engenharia civil. Foram implementados dois acelerómetros uniaxiais e um acelerómetro biaxial. Recorreu-se a uma ferramenta de simulação baseada no método dos elementos finitos que permitiu optimizar, sem custos de produção, as características dos sensores, nomeadamente a sua frequência de ressonância. A caracterização dos sensores foi realizada em ambiente laboratorial e a sua resposta comparada com os resultados de simulação, de modo a validar os modelos numéricos. A aplicabilidade e demonstração de conceito foram realizadas na monitorização de estruturas com testes de campo. Foi monitorizado um teste destrutivo de uma parede de adobe, construída à escala real no Departamento de Engenharia Civil da Universidade de Aveiro, onde foram utilizados sensores estáticos e dinâmicos baseados em redes de Bragg gravadas em fibra óptica. Foram realizadas medidas dinâmicas na ponte pedonal do Campus Universitário da Universidade de Aveiro, onde se compararam os resultados obtidos com os sensores ópticos com resultados de sensores electrónicos comerciais. O acelerómetro biaxial foi testado na monitorização de estruturas esbeltas, nomeadamente na monitorização de duas torres de telecomunicações móveis, onde se demonstrou a possibilidade da utilização de sensores ópticos na caracterização dinâmica deste tipo de estruturas. Outro tipo de estruturas de engenharia civil onde foi demonstrada a aplicabilidade dos sensores ópticos desenvolvidos na monitorização estrutural foram os reservatórios de água elevados. Foi realizada a monitorização dinâmica de um exemplo deste tipo de estruturas, localizado no Campus Universitário da Universidade de Aveiro. A monitorização foi realizada recorrendo ao sensor biaxial desenvolvido e a um sismógrafo, ficando o sensor óptico instalado na estrutura de modo a permitir futuras leituras e assim a monitorização periódica da estrutura. Foi ainda desenvolvido um sensor de humidade relativa do ar, com um material sol-gel, que permitiu registar o nível de humidade relativa no interior de blocos de betão, durante um ano. Este sensor pode ser incluído numa rede de sensores multiplexados, na caracterização e monitorização da integridade estrutural de certas estruturas de engenharia civil.
Resumo:
Apresenta-se uma avaliação de vários métodos de downscaling dinâmico. Os métodos utilizados vão desde o método clássico de aninhar um modelo regional nos resultados de um modelo global, neste caso as reanálises do ECMWF, a métodos propostos mais recentemente, que consistem em utilizar métodos de relaxamento Newtoniano de forma a fazer tender os resultados do modelo regional aos pontos das reanálises que se encontram dentro do domínio deste. O método que apresenta melhores resultados envolve a utilização de um sistema variacional de assimilação de dados de forma a incorporar dados de observações com resultados do modelo regional. A climatologia de uma simulação de 5 anos usando esse método é testada contra observações existentes sobre Portugal Continental e sobre o oceano na área da Plataforma Continental Portuguesa, o que permite concluir que o método desenvolvido é apropriado para reconstrução climática de alta resolução para Portugal Continental.
Resumo:
Congestion control in wireless networks is an important and open issue. Previous research has proven the poor performance of the Transport Control Protocol (TCP) in such networks. The factors that contribute to the poor performance of TCP in wireless environments concern its unsuitability to identify/detect and react properly to network events, its TCP window based ow control algorithm that is not suitable for the wireless channel, and the congestion collapse due to mobility. New rate based mechanisms have been proposed to mitigate TCP performance in wired and wireless networks. However, these mechanisms also present poor performance, as they lack of suitable bandwidth estimation techniques for multi-hop wireless networks. It is thus important to improve congestion control performance in wireless networks, incorporating components that are suitable for wireless environments. A congestion control scheme which provides an e - cient and fair sharing of the underlying network capacity and available bandwidth among multiple competing applications is crucial to the definition of new e cient and fair congestion control schemes on wireless multi-hop networks. The Thesis is divided in three parts. First, we present a performance evaluation study of several congestion control protocols against TCP, in wireless mesh and ad-hoc networks. The obtained results show that rate based congestion control protocols need an eficient and accurate underlying available bandwidth estimation technique. The second part of the Thesis presents a new link capacity and available bandwidth estimation mechanism denoted as rt-Winf (real time wireless inference). The estimation is performed in real-time and without the need to intrusively inject packets in the network. Simulation results show that rt-Winf obtains the available bandwidth and capacity estimation with accuracy and without introducing overhead trafic in the network. The third part of the Thesis proposes the development of new congestion control mechanisms to address the congestion control problems of wireless networks. These congestion control mechanisms use cross layer information, obtained by rt-Winf, to accurately and eficiently estimate the available bandwidth and the path capacity over a wireless network path. Evaluation of these new proposed mechanisms, through ns-2 simulations, shows that the cooperation between rt-Winf and the congestion control algorithms is able to significantly increase congestion control eficiency and network performance.
Resumo:
O tema principal desta tese é o problema de cancelamento de interferência para sistemas multi-utilizador, com antenas distribuídas. Como tal, ao iniciar, uma visão geral das principais propriedades de um sistema de antenas distribuídas é apresentada. Esta descrição inclui o estudo analítico do impacto da ligação, dos utilizadores do sistema, a mais antenas distribuídas. Durante essa análise é demonstrado que a propriedade mais importante do sistema para obtenção do ganho máximo, através da ligação de mais antenas de transmissão, é a simetria espacial e que os utilizadores nas fronteiras das células são os mais bene ciados. Tais resultados são comprovados através de simulação. O problema de cancelamento de interferência multi-utilizador é considerado tanto para o caso unidimensional (i.e. sem codi cação) como para o multidimensional (i.e. com codi cação). Para o caso unidimensional um algoritmo de pré-codi cação não-linear é proposto e avaliado, tendo como objectivo a minimização da taxa de erro de bit. Tanto o caso de portadora única como o de multipla-portadora são abordados, bem como o cenário de antenas colocadas e distribuidas. É demonstrado que o esquema proposto pode ser visto como uma extensão do bem conhecido esquema de zeros forçados, cuja desempenho é provado ser um limite inferior para o esquema generalizado. O algoritmo é avaliado, para diferentes cenários, através de simulação, a qual indica desempenho perto do óptimo, com baixa complexidade. Para o caso multi-dimensional um esquema para efectuar "dirty paper coding" binário, tendo como base códigos de dupla camada é proposto. No desenvolvimento deste esquema, a compressão com perdas de informação, é considerada como um subproblema. Resultados de simulação indicam transmissão dedigna proxima do limite de Shannon.
Resumo:
Esta tese centra-se no desenvolvimento de materiais biodegradáveis e nãodegradáveis produzidos por eletrofiação com aplicação na área biomédica. O poli(3-hidroxibutirato-co-3-hidroxivalerato) (PHBV), um poliéster biodegradável, foi selecionado como base dos materiais biodegradáveis, enquanto o poli(tereftalato de etileno) (PET), um polímero sintético, estável e biocompatível, foi selecionado para a produção das matrizes não degradáveis. Adicionou-se quitosana aos sistemas com o objetivo de melhorar o processo de eletrofiação e as propriedades morfológicas, físico-químicas e biológicas dos materiais resultantes. A composição química, bem como as características morfológicas e físicoquímicas dos materiais em estudo, foram manipuladas de modo a otimizar a sua performance como suportes celulares para engenharia de tecidos. Foram realizados estudos in vitro com cultura de fibroblastos L929 para avaliar o comportamento das células, i.e. viabilidade, adesão, proliferação e morte, quando cultivadas nas matrizes produzidas por eletrofiação. Adicionalmente foram realizados ensaios in vivo para investigar o potencial dos materiais em estudo na regeneração cutânea e como tela abdominal. Os principais resultados encontrados incluem: o desenvolvimento de novas matrizes híbridas (PHBV/quitosana) adequadas ao crescimento de fibroblastos e ao tratamento de lesões de pele; o desenvolvimento de um sistema de eletrofiação com duas seringas para a incorporação de compostos bioativos; diversas estratégias para manipulação das características morfológicas dos materiais de PHBV/quitosana e PET/quitosana produzidos por eletrofiação; uma melhoria do conhecimento das interações fibroblastos-suporte polimérico; a verificação de uma resposta inflamatória desencadeada pelos materiais nãodegradáveis quando utilizados no tratamento de defeitos da parede abdominal, o que sugere a necessidade de novos estudos para avaliar a segurança do uso de biomateriais produzidos por eletrofiação.
Resumo:
A relação entre a epidemiologia, a modelação matemática e as ferramentas computacionais permite construir e testar teorias sobre o desenvolvimento e combate de uma doença. Esta tese tem como motivação o estudo de modelos epidemiológicos aplicados a doenças infeciosas numa perspetiva de Controlo Ótimo, dando particular relevância ao Dengue. Sendo uma doença tropical e subtropical transmitida por mosquitos, afecta cerca de 100 milhões de pessoas por ano, e é considerada pela Organização Mundial de Saúde como uma grande preocupação para a saúde pública. Os modelos matemáticos desenvolvidos e testados neste trabalho, baseiam-se em equações diferenciais ordinárias que descrevem a dinâmica subjacente à doença nomeadamente a interação entre humanos e mosquitos. É feito um estudo analítico dos mesmos relativamente aos pontos de equilíbrio, sua estabilidade e número básico de reprodução. A propagação do Dengue pode ser atenuada através de medidas de controlo do vetor transmissor, tais como o uso de inseticidas específicos e campanhas educacionais. Como o desenvolvimento de uma potencial vacina tem sido uma aposta mundial recente, são propostos modelos baseados na simulação de um hipotético processo de vacinação numa população. Tendo por base a teoria de Controlo Ótimo, são analisadas as estratégias ótimas para o uso destes controlos e respetivas repercussões na redução/erradicação da doença aquando de um surto na população, considerando uma abordagem bioeconómica. Os problemas formulados são resolvidos numericamente usando métodos diretos e indiretos. Os primeiros discretizam o problema reformulando-o num problema de optimização não linear. Os métodos indiretos usam o Princípio do Máximo de Pontryagin como condição necessária para encontrar a curva ótima para o respetivo controlo. Nestas duas estratégias utilizam-se vários pacotes de software numérico. Ao longo deste trabalho, houve sempre um compromisso entre o realismo dos modelos epidemiológicos e a sua tratabilidade em termos matemáticos.
Resumo:
O presente trabalho descreve um projeto de implementação da metodologia de Manutenção Produtiva Total (TPM) desenvolvido na Simoldes Plásticos, unidade industrial de injeção de plásticos que opera no setor automóvel. A metodologia TPM salienta o papel fundamental que o trabalho em equipa e, em particular, a participação do pessoal, podem desempenhar na identificação de oportunidades de melhoria e na sua implementação. A sua aplicação visa a diminuição dos desperdícios, acidentes, defeitos, paragens e falhas ao longo de um processo produtivo. De uma forma geral, a TPM utiliza uma ideia base elementar que passa pela sensibilização, formação e treino dos operadores para que estes consigam realizar a manutenção autónoma dos equipamentos e melhorar continuamente o seu desempenho. Este trabalho apresenta em primeiro lugar uma revisão dos conceitos de Gestão da Qualidade Total, particularmente da Melhoria Contínua e da Metodologia TPM. De seguida, é descrita a aplicação da TPM na empresa Simoldes Plásticos, que inclui uma descrição dos principais problemas encontrados e das medidas aplicadas para a sua correção. Finalmente é feita uma análise do impacto das melhorias implementadas, a partir da análise de um indicador de eficiência específico, desenvolvido na empresa - o RUTPM - Rendimento de Utilização TPM.
Resumo:
Os nitretos binários semicondutores do grupo III, e respetivos compostos, são vastamente estudados devido à sua possível aplicabilidade em dispositivos optoeletrónicos, tais como díodos emissores de luz (LEDs) e LASERs, assim como dispositivos para a eletrónica de elevadas temperatura, potência e frequência. Enquanto se concretizou a comercialização na última década de LEDs e LASERs recorrendo ao ternário In1-yGayN, estudos das propriedades fundamentais estruturais e óticas, assim como de técnicas de processamento no desenvolvimento de novas aplicações de outros ternários do grupo III-N encontram-se na sua fase inicial. Esta tese apresenta a investigação experimental de filmes finos epitaxiais de Al1-xInxN crescidos sobre camadas tampão de GaN e de Al1-yGayN e o estudo do recozimento e implantação de super-redes (SL) compostas por pontos quânticos de GaN (QD) envolvidos por camadas de AlN. Apesar do hiato energético do Al1-xInxN poder variar entre os 0,7 eV e os 6,2 eV e, por isso, numa gama, consideravelmente superior à dos ternários Al1-yGayN e InyGa1-yN, o primeiro é o menos estudado devido a dificuldades no crescimento de filmes com elevada qualidade cristalina. É efetuada, nesta tese, uma caracterização estrutural e composicional de filmes finos de Al1-xInxN crescidos sobre camadas tampão de GaN e de Al1-yGayN usando técnicas de raios-X, feixe de iões e de microscopia. Mostra-se que o Al1-xInxN pode ser crescido com elevada qualidade cristalina quando a epitaxia do crescimento se aproxima da condição de rede combinada do Al1-xInxN e da camada tampão (GaN ou Al1-yGayN), isto é, com conteúdo de InN de ~18%, quando crescido sobre uma camada de GaN. Quando o conteúdo de InN é inferior/superior à condição de rede combinada, fenómenos de relaxação de tensão e deterioração do cristal tais como o aumento da rugosidade de superfície prejudicam a qualidade cristalina do filme de Al1-xInxN. Observou-se que a qualidade dos filmes de Al1-xInxN depende fortemente da qualidade cristalina da camada tampão e, em particular, da sua morfologia e densidade de deslocações. Verificou-se que, dentro da exatidão experimental, os parâmetros de rede do ternário seguem a lei empírica de Vegard, ou seja, variam linearmente com o conteúdo de InN. Contudo, em algumas amostras, a composição determinada via espetrometria de retrodispersão de Rutherford e difração e raios-X mostra valores discrepantes. Esta discrepância pode ser atribuída a defeitos ou impurezas capazes de alterar os parâmetros de rede do ternário. No que diz respeito às SL dos QD e camadas de AlN, estudos de recozimento mostraram elevada estabilidade térmica dos QD de GaN quando estes se encontram inseridos numa matriz de AlN. Por implantação iónica, incorporou-se európio nestas estruturas e, promoveu-se a ativação ótica dos iões de Eu3+ através de tratamentos térmicos. Foram investigados os efeitos da intermistura e da relaxação da tensão ocorridos durante o recozimento e implantação nas propriedades estruturais e óticas. Verificou-se que para fluências elevadas os defeitos gerados por implantação são de difícil remoção. Contudo, a implantação com baixa fluência de Eu, seguida de tratamento térmico, promove uma elevada eficiência e estabilidade térmica da emissão vermelha do ião lantanídeo incorporado nos QD de GaN. Estes resultados são, particularmente relevantes, pois, na região espetral indicada, a eficiência quântica dos LEDs convencionais de InGaN é baixa.
Resumo:
Esta tese apresenta um estudo sobre alguns dos protocolos de cooperação MAC para redes sem fios utilizando o sistema IEEE 802.11 multi-débito. É proposto um novo modelo de arquitetura para a categorização e análise da cooperação em redes sem fios, tendo este modelo sido aplicado a protocolos cooperativos existentes para camada MAC. É investigado como as características do meio físico, assim como os requisitos de níveis superiores podem ser aplicados ao processo de cooperação, com vista a melhorar as características de funcionamento da rede de comunicações. Para este propósito são exploradas as métricas mais relevantes para o processo de cooperação. São igualmente estudados os limites impostos pelos protocolos da camada MAC e as limitações práticas impostas por protocolos da família de normas que compõem o IEEE 802.11. Neste trabalho foi criada uma métrica multicamada, que permite considerar os requisitos aplicacionais de performance e o tipo de tráfego, assim como a mobilidade dos dispositivos, no funcionamento dos mecanismos de cooperação. Como forma de validação, e para corretamente avaliar o impacto da métrica, um novo protocolo de cooperação foi desenvolvido e implementado. O seu funcionamento é descrito de forma analítica assim como validado através de a um ambiente de simulação. Os resultados obtidos mostram que a utilização de uma métrica multicamada é uma técnica robusta, fornecendo melhorias consistentes no contexto de redes IEEE 802.11. São igualmente demonstradas várias outras características de funcionamento com impacto para as comunicações. Estes dados fornecem uma visão real e encorajadora para a realização de mais pesquisas para a melhoria da performance dos protocolos cooperativos, assim como a sua utilização num variado número de aplicações futuras. No final do documento são apresentados alguns desafios para a continuação da investigação deste tópico.
Resumo:
As técnicas estatísticas são fundamentais em ciência e a análise de regressão linear é, quiçá, uma das metodologias mais usadas. É bem conhecido da literatura que, sob determinadas condições, a regressão linear é uma ferramenta estatística poderosíssima. Infelizmente, na prática, algumas dessas condições raramente são satisfeitas e os modelos de regressão tornam-se mal-postos, inviabilizando, assim, a aplicação dos tradicionais métodos de estimação. Este trabalho apresenta algumas contribuições para a teoria de máxima entropia na estimação de modelos mal-postos, em particular na estimação de modelos de regressão linear com pequenas amostras, afetados por colinearidade e outliers. A investigação é desenvolvida em três vertentes, nomeadamente na estimação de eficiência técnica com fronteiras de produção condicionadas a estados contingentes, na estimação do parâmetro ridge em regressão ridge e, por último, em novos desenvolvimentos na estimação com máxima entropia. Na estimação de eficiência técnica com fronteiras de produção condicionadas a estados contingentes, o trabalho desenvolvido evidencia um melhor desempenho dos estimadores de máxima entropia em relação ao estimador de máxima verosimilhança. Este bom desempenho é notório em modelos com poucas observações por estado e em modelos com um grande número de estados, os quais são comummente afetados por colinearidade. Espera-se que a utilização de estimadores de máxima entropia contribua para o tão desejado aumento de trabalho empírico com estas fronteiras de produção. Em regressão ridge o maior desafio é a estimação do parâmetro ridge. Embora existam inúmeros procedimentos disponíveis na literatura, a verdade é que não existe nenhum que supere todos os outros. Neste trabalho é proposto um novo estimador do parâmetro ridge, que combina a análise do traço ridge e a estimação com máxima entropia. Os resultados obtidos nos estudos de simulação sugerem que este novo estimador é um dos melhores procedimentos existentes na literatura para a estimação do parâmetro ridge. O estimador de máxima entropia de Leuven é baseado no método dos mínimos quadrados, na entropia de Shannon e em conceitos da eletrodinâmica quântica. Este estimador suplanta a principal crítica apontada ao estimador de máxima entropia generalizada, uma vez que prescinde dos suportes para os parâmetros e erros do modelo de regressão. Neste trabalho são apresentadas novas contribuições para a teoria de máxima entropia na estimação de modelos mal-postos, tendo por base o estimador de máxima entropia de Leuven, a teoria da informação e a regressão robusta. Os estimadores desenvolvidos revelam um bom desempenho em modelos de regressão linear com pequenas amostras, afetados por colinearidade e outliers. Por último, são apresentados alguns códigos computacionais para estimação com máxima entropia, contribuindo, deste modo, para um aumento dos escassos recursos computacionais atualmente disponíveis.
Resumo:
Por parte da indústria de estampagem tem-se verificado um interesse crescente em simulações numéricas de processos de conformação de chapa, incluindo também métodos de engenharia inversa. Este facto ocorre principalmente porque as técnicas de tentativa-erro, muito usadas no passado, não são mais competitivas a nível económico. O uso de códigos de simulação é, atualmente, uma prática corrente em ambiente industrial, pois os resultados tipicamente obtidos através de códigos com base no Método dos Elementos Finitos (MEF) são bem aceites pelas comunidades industriais e científicas Na tentativa de obter campos de tensão e de deformação precisos, uma análise eficiente com o MEF necessita de dados de entrada corretos, como geometrias, malhas, leis de comportamento não-lineares, carregamentos, leis de atrito, etc.. Com o objetivo de ultrapassar estas dificuldades podem ser considerados os problemas inversos. No trabalho apresentado, os seguintes problemas inversos, em Mecânica computacional, são apresentados e analisados: (i) problemas de identificação de parâmetros, que se referem à determinação de parâmetros de entrada que serão posteriormente usados em modelos constitutivos nas simulações numéricas e (ii) problemas de definição geométrica inicial de chapas e ferramentas, nos quais o objetivo é determinar a forma inicial de uma chapa ou de uma ferramenta tendo em vista a obtenção de uma determinada geometria após um processo de conformação. São introduzidas e implementadas novas estratégias de otimização, as quais conduzem a parâmetros de modelos constitutivos mais precisos. O objetivo destas estratégias é tirar vantagem das potencialidades de cada algoritmo e melhorar a eficiência geral dos métodos clássicos de otimização, os quais são baseados em processos de apenas um estágio. Algoritmos determinísticos, algoritmos inspirados em processos evolucionários ou mesmo a combinação destes dois são usados nas estratégias propostas. Estratégias de cascata, paralelas e híbridas são apresentadas em detalhe, sendo que as estratégias híbridas consistem na combinação de estratégias em cascata e paralelas. São apresentados e analisados dois métodos distintos para a avaliação da função objetivo em processos de identificação de parâmetros. Os métodos considerados são uma análise com um ponto único ou uma análise com elementos finitos. A avaliação com base num único ponto caracteriza uma quantidade infinitesimal de material sujeito a uma determinada história de deformação. Por outro lado, na análise através de elementos finitos, o modelo constitutivo é implementado e considerado para cada ponto de integração. Problemas inversos são apresentados e descritos, como por exemplo, a definição geométrica de chapas e ferramentas. Considerando o caso da otimização da forma inicial de uma chapa metálica a definição da forma inicial de uma chapa para a conformação de um elemento de cárter é considerado como problema em estudo. Ainda neste âmbito, um estudo sobre a influência da definição geométrica inicial da chapa no processo de otimização é efetuado. Este estudo é realizado considerando a formulação de NURBS na definição da face superior da chapa metálica, face cuja geometria será alterada durante o processo de conformação plástica. No caso dos processos de otimização de ferramentas, um processo de forjamento a dois estágios é apresentado. Com o objetivo de obter um cilindro perfeito após o forjamento, dois métodos distintos são considerados. No primeiro, a forma inicial do cilindro é otimizada e no outro a forma da ferramenta do primeiro estágio de conformação é otimizada. Para parametrizar a superfície livre do cilindro são utilizados diferentes métodos. Para a definição da ferramenta são também utilizados diferentes parametrizações. As estratégias de otimização propostas neste trabalho resolvem eficientemente problemas de otimização para a indústria de conformação metálica.
Resumo:
A engenharia de tecidos é um domínio tecnológico emergente em rápido desenvolvimento que se destina a produzir substitutos viáveis para a restauração, manutenção ou melhoria da função dos tecidos ou órgãos humanos. Uma das estratégias mais predominantes em engenharia de tecidos envolve crescimento celular sobre matrizes de suporte (scaffolds), biocompatíveis e biodegradáveis. Estas matrizes devem possuir não só elevadas propriedades mecânicas e vasculares, mas também uma elevada porosidade. Devido à incompatibilidade destes dois parâmetros, é necessário desenvolver estratégias de simulação de forma a obter estruturas optimizadas. A previsão real das propriedades mecânicas, vasculares e topológicas das matrizes de suporte, produzidas por técnicas de biofabricação, é muito importante para as diversas aplicações em engenharia de tecidos. A presente dissertação apresenta o estado da arte da engenharia de tecidos, bem como as técnicas de biofabricação envolvidas na produção de matrizes de suporte. Para o design optimizado de matrizes de suporte foi adoptada uma metodologia de design baseada tanto em métodos de elementos finitos para o cálculo do comportamento mecânico, vascular e as optimizações topológicas, como em métodos analíticos para a validação das simulações estruturais utilizando dados experimentais. Considerando que as matrizes de suporte são estruturas elementares do tipo LEGO, dois tipos de famílias foram consideradas, superfícies não periódicas e as superfícies triplas periódicas que descrevem superfícies naturais. Os objectivos principais desta dissertação são: i) avaliar as técnicas existentes de engenharia de tecidos; ii) avaliar as técnicas existentes de biofabricação para a produção de matrizes de suporte; iii) avaliar o desempenho e comportamento das matrizes de suporte; iv) implementar uma metodologia de design de matrizes de suporte em variáveis tais como a porosidade, geometria e comportamento mecânico e vascular por forma a auxiliar o processo de design; e por fim, v) validar experimentalmente a metodologia adoptada.
Resumo:
Uma das maiores causas de degradação dos revestimentos é a presença de sais solúveis, tanto nas zonas costeiras como nas zonas continentais. Estes sais podem ter origens distintas, tais como: humidade ascensional, nevoeiro salino, inundações ou ainda estarem presentes nos próprios materiais, como é o caso da utilização de areias mal lavadas. O local onde os sais cristalizam é dependente do tipo de transporte entre a alvenaria e o revestimento, assim como da severidade da envolvente ambiental (temperatura e humidade relativa). Com esta tese pretende-se desenvolver revestimentos de substituição compatíveis, eficazes e duráveis para alvenarias antigas sujeitas à ação severa da água (humidade ascensional através das fundações com elevada concentração de NaCl); desenvolver ensaios de envelhecimento acelerado baseados em ciclos de dissolução e cristalização que permitam simular a ação severa da água; perceber a influência de revestimentos com caraterísticas extremas de permeabilidade ao vapor de água aplicados nas duas faces do mesmo suporte (argamassas de cimento e resina versus argamassas de cal), e sujeitos à ação severa da água; perceber a influência de vários fatores, tais como : rasgos verticais contínuos executados no emboço e a utilização de hidrófugo no reboco no desempenho dos vários sistemas de revestimento desenvolvidos, quando sujeitos à ação severa da água;; utilizar a remoção eletrocinética de sais, em provetes simulando a influência da alvenaria e dos revestimentos, com o objetivo de reduzir a sua concentração de NaCl, para que no futuro possa ser aplicado de forma eficaz em paredes de edifícios antigos, enquanto ação de manutenção, e desta forma aumentar a durabilidade dos revestimentos. Para atingir os objetivos descritos, foram considerados: i) o desenvolvimento de provetes que permitam considerar os sistemas de revestimento desenvolvidos nesta tese e o suporte, e que simulem uma alvenaria revestida em ambas as faces, e com os quais seja possível a simulação da ação severa da água em laboratório e, ii) o desenvolvimento ciclos de dissolução e cristalização numa parede de grandes dimensões existente em laboratório, que permitam simular a ação severa da água em condições tão reais quanto possível. O objetivo final deste estudo é o desenvolvimento de um revestimento de substituição denominado “emboço ventilado” para paredes de edifícios antigos com revestimentos degradados devido à presença de humidade ascensional e sais solúveis. Pretende-se que este sistema de revestimento, composto por duas camadas de revestimento (camada base e reboco), seja compatível, durável e eficaz, e que funcione como um sistema de acumulação no qual os sais cristalizem na camada base do sistema de revestimento (executada com rasgos verticais) e não na alvenaria ou na camada exterior.