848 resultados para otimização
Resumo:
A análise dos efeitos dos sismos mostra que a investigação em engenharia sísmica deve dar especial atenção à avaliação da vulnerabilidade das construções existentes, frequentemente desprovidas de adequada resistência sísmica tal como acontece em edifícios de betão armado (BA) de muitas cidades em países do sul da Europa, entre os quais Portugal. Sendo os pilares elementos estruturais fundamentais na resistência sísmica dos edifícios, deve ser dada especial atenção à sua resposta sob ações cíclicas. Acresce que o sismo é um tipo de ação cujos efeitos nos edifícios exige a consideração de duas componentes horizontais, o que tem exigências mais severas nos pilares comparativamente à ação unidirecional. Assim, esta tese centra-se na avaliação da resposta estrutural de pilares de betão armado sujeitos a ações cíclicas horizontais biaxiais, em três linhas principais. Em primeiro lugar desenvolveu-se uma campanha de ensaios para o estudo do comportamento cíclico uniaxial e biaxial de pilares de betão armado com esforço axial constante. Para tal foram construídas quatro séries de pilares retangulares de betão armado (24 no total) com diferentes características geométricas e quantidades de armadura longitudinal, tendo os pilares sido ensaiados para diferentes histórias de carga. Os resultados experimentais obtidos são analisados e discutidos dando particular atenção à evolução do dano, à degradação de rigidez e resistência com o aumento das exigências de deformação, à energia dissipada, ao amortecimento viscoso equivalente; por fim é proposto um índice de dano para pilares solicitados biaxialmente. De seguida foram aplicadas diferentes estratégias de modelação não-linear para a representação do comportamento biaxial dos pilares ensaiados, considerando não-linearidade distribuída ao longo dos elementos ou concentrada nas extremidades dos mesmos. Os resultados obtidos com as várias estratégias de modelação demonstraram representar adequadamente a resposta em termos das curvas envolventes força-deslocamento, mas foram encontradas algumas dificuldades na representação da degradação de resistência e na evolução da energia dissipada. Por fim, é proposto um modelo global para a representação do comportamento não-linear em flexão de elementos de betão armado sujeitos a ações biaxiais cíclicas. Este modelo tem por base um modelo uniaxial conhecido, combinado com uma função de interação desenvolvida com base no modelo de Bouc- Wen. Esta função de interação foi calibrada com recurso a técnicas de otimização e usando resultados de uma série de análises numéricas com um modelo refinado. É ainda demonstrada a capacidade do modelo simplificado em reproduzir os resultados experimentais de ensaios biaxiais de pilares.
Resumo:
A relação entre a epidemiologia, a modelação matemática e as ferramentas computacionais permite construir e testar teorias sobre o desenvolvimento e combate de uma doença. Esta tese tem como motivação o estudo de modelos epidemiológicos aplicados a doenças infeciosas numa perspetiva de Controlo Ótimo, dando particular relevância ao Dengue. Sendo uma doença tropical e subtropical transmitida por mosquitos, afecta cerca de 100 milhões de pessoas por ano, e é considerada pela Organização Mundial de Saúde como uma grande preocupação para a saúde pública. Os modelos matemáticos desenvolvidos e testados neste trabalho, baseiam-se em equações diferenciais ordinárias que descrevem a dinâmica subjacente à doença nomeadamente a interação entre humanos e mosquitos. É feito um estudo analítico dos mesmos relativamente aos pontos de equilíbrio, sua estabilidade e número básico de reprodução. A propagação do Dengue pode ser atenuada através de medidas de controlo do vetor transmissor, tais como o uso de inseticidas específicos e campanhas educacionais. Como o desenvolvimento de uma potencial vacina tem sido uma aposta mundial recente, são propostos modelos baseados na simulação de um hipotético processo de vacinação numa população. Tendo por base a teoria de Controlo Ótimo, são analisadas as estratégias ótimas para o uso destes controlos e respetivas repercussões na redução/erradicação da doença aquando de um surto na população, considerando uma abordagem bioeconómica. Os problemas formulados são resolvidos numericamente usando métodos diretos e indiretos. Os primeiros discretizam o problema reformulando-o num problema de optimização não linear. Os métodos indiretos usam o Princípio do Máximo de Pontryagin como condição necessária para encontrar a curva ótima para o respetivo controlo. Nestas duas estratégias utilizam-se vários pacotes de software numérico. Ao longo deste trabalho, houve sempre um compromisso entre o realismo dos modelos epidemiológicos e a sua tratabilidade em termos matemáticos.
Resumo:
No âmbito do Mestrado em Química, com especialização em Química Orgânica e Produtos Naturais, será apresentado nesta dissertação o trabalho desenvolvido sobre a síntese e caracterização de fosfatos e fosfonatos metálicos tetravalentes, assim como a avaliação da sua capacidade catalítica em reações de esterificação. Iniciou-se este trabalho pela síntese de vários fosfatos e fosfonatos metálicos tetravalentes, que apresentam a fórmula geral MIV(HXO4)2.nH2O e MIV(RXO3)2.nH2O, respetivamente, onde MIV = Zr, X = P, W, Mo e R = grupo orgânico. Os compostos sintetizados foram caracterizados por espetroscopia de infravermelho, difração de raios-X de pós e por análise elementar e termogravimétrica. Os fosfatos e fosfonatos metálicos tetravalentes foram avaliados como catalisadores em reações de esterificação de Fischer entre os ácidos acético, ou benzóico, e diferentes álcoois. Após esta avaliação foram efetuados estudos de otimização das condições reacionais para a síntese de cada éster. Em cada um dos casos foi utilizado o catalisador com o qual se obtiveram os melhores rendimentos nos estudos iniciais, ou seja com o molibdato-fenilfosfonato de zircónio(IV), ZrMoPhP. Todas as reações foram monitorizadas por cromatografia gasosa ou por cromatografia líquida de alta pressão. Todos os ésteres foram identificados por comparação com os padrões correspondentes.
Resumo:
Por parte da indústria de estampagem tem-se verificado um interesse crescente em simulações numéricas de processos de conformação de chapa, incluindo também métodos de engenharia inversa. Este facto ocorre principalmente porque as técnicas de tentativa-erro, muito usadas no passado, não são mais competitivas a nível económico. O uso de códigos de simulação é, atualmente, uma prática corrente em ambiente industrial, pois os resultados tipicamente obtidos através de códigos com base no Método dos Elementos Finitos (MEF) são bem aceites pelas comunidades industriais e científicas Na tentativa de obter campos de tensão e de deformação precisos, uma análise eficiente com o MEF necessita de dados de entrada corretos, como geometrias, malhas, leis de comportamento não-lineares, carregamentos, leis de atrito, etc.. Com o objetivo de ultrapassar estas dificuldades podem ser considerados os problemas inversos. No trabalho apresentado, os seguintes problemas inversos, em Mecânica computacional, são apresentados e analisados: (i) problemas de identificação de parâmetros, que se referem à determinação de parâmetros de entrada que serão posteriormente usados em modelos constitutivos nas simulações numéricas e (ii) problemas de definição geométrica inicial de chapas e ferramentas, nos quais o objetivo é determinar a forma inicial de uma chapa ou de uma ferramenta tendo em vista a obtenção de uma determinada geometria após um processo de conformação. São introduzidas e implementadas novas estratégias de otimização, as quais conduzem a parâmetros de modelos constitutivos mais precisos. O objetivo destas estratégias é tirar vantagem das potencialidades de cada algoritmo e melhorar a eficiência geral dos métodos clássicos de otimização, os quais são baseados em processos de apenas um estágio. Algoritmos determinísticos, algoritmos inspirados em processos evolucionários ou mesmo a combinação destes dois são usados nas estratégias propostas. Estratégias de cascata, paralelas e híbridas são apresentadas em detalhe, sendo que as estratégias híbridas consistem na combinação de estratégias em cascata e paralelas. São apresentados e analisados dois métodos distintos para a avaliação da função objetivo em processos de identificação de parâmetros. Os métodos considerados são uma análise com um ponto único ou uma análise com elementos finitos. A avaliação com base num único ponto caracteriza uma quantidade infinitesimal de material sujeito a uma determinada história de deformação. Por outro lado, na análise através de elementos finitos, o modelo constitutivo é implementado e considerado para cada ponto de integração. Problemas inversos são apresentados e descritos, como por exemplo, a definição geométrica de chapas e ferramentas. Considerando o caso da otimização da forma inicial de uma chapa metálica a definição da forma inicial de uma chapa para a conformação de um elemento de cárter é considerado como problema em estudo. Ainda neste âmbito, um estudo sobre a influência da definição geométrica inicial da chapa no processo de otimização é efetuado. Este estudo é realizado considerando a formulação de NURBS na definição da face superior da chapa metálica, face cuja geometria será alterada durante o processo de conformação plástica. No caso dos processos de otimização de ferramentas, um processo de forjamento a dois estágios é apresentado. Com o objetivo de obter um cilindro perfeito após o forjamento, dois métodos distintos são considerados. No primeiro, a forma inicial do cilindro é otimizada e no outro a forma da ferramenta do primeiro estágio de conformação é otimizada. Para parametrizar a superfície livre do cilindro são utilizados diferentes métodos. Para a definição da ferramenta são também utilizados diferentes parametrizações. As estratégias de otimização propostas neste trabalho resolvem eficientemente problemas de otimização para a indústria de conformação metálica.
Resumo:
Este trabalho investiga novas metodologias para as redes óticas de acesso de próxima geração (NG-OAN). O trabalho está dividido em quatro tópicos de investigação: projeto da rede, modelos numéricos para efeitos não lineares da fibra ótica, impacto dos efeitos não lineares da fibra ótica e otimização da rede. A rede ótica de acesso investigada nesse trabalho está projetado para suprir os requisitos de densidade de utilizadores e cobertura, isto é, suportar muitos utilizadores ( 1000) com altas velocidades de conexão dedicada ( 1 Gb/s) ocupando uma faixa estreita do espectro ( 25 nm) e comprimentos de fibra ótica até 100 km. Os cenários são baseados em redes óticas passivas com multiplexagem por divisão no comprimento de onda de alta densidade (UDWDM-PON) utilizando transmissores/receptores coerentes nos terminais da rede. A rede é avaliada para vários ritmos de transmissão usando formatos de modulação avançados, requisitos de largura de banda por utilizador e partilha de banda com tecnologias tradicionais de redes óticas passivas (PON). Modelos numéricos baseados em funções de transferência das séries de Volterra (VSTF) são demonstrados tanto para a análise dos efeitos não lineares da fibra ótica quanto para avaliação do desempenho total da rede. São apresentadas as faixas de potência e distância de transmissão nas quais as séries de Volterra apresentam resultados semelhantes ao modelo referência Split-Step Fourier (SSF) (validado experimentalmente) para o desempenho total da rede. Além disso, um algoritmo, que evita componentes espectrais com intensidade nulo, é proposto para realizar cálculos rápidos das séries. O modelo VSTF é estendido para identificar unicamente os efeitos não lineares da fibra ótica mais relevantes no cenário investigado: Self-Phase Modulation (SPM), Cross-Phase Modulation (XPM) e Four-Wave Mixing (FWM). Simulações numéricas são apresentadas para identificar o impacto isolado de cada efeito não linear da fibra ótica, SPM, XPM e FWM, no desempenho da rede com detecção coerente UDWDM-PON, transportando canais com modulação digital em fase (M-ária PSK) ou modulação digital em amplitude (M-ária QAM). A análise numérica é estendida para diferentes comprimentos de fibra ótica mono modo (SSMF), potência por canal e ritmo de transmissão por canal. Por conseguinte, expressões analíticas são extrapoladas para determinar a evolução do SPM, XPM e FWM em função da potência e distância de transmissão em cenários NG-OAN. O desempenho da rede é otimizada através da minimização parcial da interferência FWM (via espaçamento desigual dos canais), que nesse caso, é o efeito não linear da fibra ótica mais relevante. Direções para melhorias adicionas no desempenho da rede são apresentados para cenários em que o XPM é relevante, isto é, redes transportando formatos de modulação QAM. A solução, nesse caso, é baseada na utilização de técnicas de processamento digital do sinal.
Resumo:
Nas últimas décadas, um grande número de processos têm sido descritos em termos de redes complexas. A teoria de redes complexas vem sendo utilizada com sucesso para descrever, modelar e caracterizar sistemas naturais, artificias e sociais, tais como ecossistemas, interações entre proteínas, a Internet, WWW, até mesmo as relações interpessoais na sociedade. Nesta tese de doutoramento apresentamos alguns modelos de agentes interagentes em redes complexas. Inicialmente, apresentamos uma breve introdução histórica (Capítulo 1), seguida de algumas noções básicas sobre redes complexas (Capítulo 2) e de alguns trabalhos e modelos mais relevantes a esta tese de doutoramento (Capítulo 3). Apresentamos, no Capítulo 4, o estudo de um modelo de dinâmica de opiniões, onde busca-se o consenso entre os agentes em uma população, seguido do estudo da evolução de agentes interagentes em um processo de ramificação espacialmente definido (Capítulo 5). No Capítulo 6 apresentamos um modelo de otimização de fluxos em rede e um estudo do surgimento de redes livres de escala a partir de um processo de otimização . Finalmente, no Capítulo 7, apresentamos nossas conclusões e perspectivas futuras.
Resumo:
Esta tese apresenta um estudo sobre otimização económica de parques eólicos, com o objetivo de obter um algoritmo para otimização económica de parques eólicos através do custo da energia produzida. No estudo utilizou-se uma abordagem multidisciplinar. Inicialmente, apresentam-se as principais tecnologias e diferentes arquiteturas utilizadas nos parques eólicos. Bem como esquemas de funcionamento e gestão dos parques. São identificadas variáveis necessárias e apresenta-se um modelo dimensionamento para cálculo dos custos da energia produzida, tendo-se dado ênfase às instalações onshore e ligados a rede elétrica de distribuição. É feita uma análise rigorosa das características das topologias dos aerogeradores disponíveis no mercado, e simula-se o funcionamento de um parque eólico para testar a validade dos modelos desenvolvidos. Também é implementado um algoritmo para a obtenção de uma resposta otimizada para o ciclo de vida económico do parque eólico em estudo. A abordagem proposta envolve algoritmos para otimização do custo de produção com multiplas funções objetivas com base na descrição matemática da produção de eletricidade. Foram desenvolvidos modelos de otimização linear, que estabelece a ligação entre o custo económico e a produção de eletricidade, tendo em conta ainda as emissões de CO2 em instrumentos de política energética para energia eólica. São propostas expressões para o cálculo do custo de energia com variáveis não convencionais, nomeadamente, para a produção variável do parque eólico, fator de funcionamento e coeficiente de eficiência geral do sistema. Para as duas últimas, também é analisado o impacto da distribuição do vento predominante no sistema de conversão de energia eólica. Verifica-se que os resultados obtidos pelos algoritmos propostos são similares às obtidas por demais métodos numéricos já publicados na comunidade científica, e que o algoritmo de otimização económica sofre influência significativa dos valores obtidos dos coeficientes em questão. Finalmente, é demonstrado que o algoritmo proposto (LCOEwso) é útil para o dimensionamento e cálculo dos custos de capital e O&M dos parques eólicos com informação incompleta ou em fase de projeto. Nesse sentido, o contributo desta tese vem ser desenvolver uma ferramenta de apoio à tomada de decisão de um gestor, investidor ou ainda agente público em fomentar a implantação de um parque eólico.
Resumo:
The assessment of ecological status of lotic freshwater bodies, based on stringent criteria of classification, has been defined by the Water Framework Directive (WFD), as a result of the implementation and optimization of methodologies that integrate physico-chemical, biological, and hydromorphological parameters. It is recognized that the application of this methodology is not easy, because it requires deep technical and scientific knowledge; it is time consuming in its application involving high financial costs. Thus, the main objective of this study was the development of cheaper and faster complementary methodologies that may contribute to the technical application of the classification criteria defined by the WFD, achieving the same final results of evaluation. In order to achieve this main goal, the river Mau, a small mountain river subjected to different stressors (eg, metals, pesticides), was established as the main sampling area. This thesis reviewed the historical development of various biotic indexes and its application in assessing water quality, especially highlighting the new paradigm defined by the WFD, and the corresponding actions developed for optimization and intercalibration of methodologies, evaluating the final state of water bodies. The ecological spatiotemporal characterization of the river Mau focused on the application of the WFD methodology, using at this stage only macroinvertebrates collected during four seasons. Results were compared with historical data of the last three years and they demonstrated that the river is in good condition. However, the ecological quality decreased at certain locations indicating that organisms were subjected to some type of disturbance. As the ecological quality can be conditioned by pulses of contamination from the sediments, in environmental adverse conditions, assays were performed with elutriates, obtained from sediments collected near the mining complex Braçal-Palhal. Results showed that this method was effective achieving the state of contamination, which may be important in prioritizing/scoring of critical areas within river ecosystems potentially impacted, using the WFD methodology. However, this methodology requires the collection of sediment which can promote the modification and / or loss of contaminants. To solve this potential problem, we developed a new methodology to obtain similar results. For this, we used a benthic microalga, belonging to the Portuguese flora, sensitive to organic pollution and metals. This methodology was optimized for application in situ, by immobilization of diatom in calcium alginate beads. The results showedthat their sensitivity and normal growth rate are similar to data obtained when used free cells of diatom. This new methodology allowed the achievement of a very quick response on the degree of contamination of a site, providing a complementary methodology to WFD.
Resumo:
The development of a compact gamma camera with high spatial resolution is of great interest in Nuclear Medicine as a means to increase the sensitivity of scintigraphy exams and thus allow the early detection of small tumours. Following the introduction of the wavelength-shifting fibre (WSF) gamma camera by Soares et al. and evolution of photodiodes into highly sensitive silicon photomultipliers (SiPMs), this thesis explores the development of a WSF gamma camera using SiPMs to obtain the position information of scintillation events in a continuous CsI(Na) crystal. The design is highly flexible, allowing the coverage of different areas and the development of compact cameras, with very small dead areas at the edges. After initial studies which confirmed the feasibility of applying SiPMs, a prototype with 5 5 cm2 was assembled and tested at room temperature, in an active field-of-view of 10 10 mm2. Calibration and characterisation of intrinsic properties of this prototype were done using 57Co, while extrinsic measurements were performed using a high-resolution parallel-hole collimator and 99mTc. In addition, a small mouse injected with a radiopharmaceutical was imaged with the developed prototype. Results confirm the great potential of SiPMs when applied in a WSF gamma camera, achieving spatial resolution performance superior to the traditional Anger camera. Furthermore, performance can be improved by an optimisation of experimental conditions, in order to minimise and control the undesirable effects of thermal noise and non-uniformity of response of multiple SiPMs. The development and partial characterisation of a larger SiPM WSF gamma camera with 10 10 cm2 for clinical application are also presented.
Resumo:
A reação entre o óxido de magnésio (MgO) e o fosfato de monoamónio (MAP), à temperatura ambiente, origina os cimentos de fosfato de magnésio, materiais caracterizados pela sua presa rápida e pelas excelentes propriedades mecânicas adquiridas precocemente. As propriedades finais são dependentes, essencialmente, da composição do cimento (razão molar magnésia:fosfato e utilização de retardantes de presa) mas também são influenciadas pela reatividade da magnésia utilizada. Neste trabalho, a reação foi caracterizada através do estudo da influência da razão molar MgO:MAP (variando de 1:1 até 8:1), da presença e teor de aditivos retardantes (ácido bórico, ácido cítrico e tripolifosfato de sódio) e da variação da área superficial específica da magnésia (conseguida por calcinação do óxido), no tempo de presa, na temperatura máxima atingida e nas fases cristalinas finais formadas. A reação de presa pode ser comparada à hidratação do cimento Portland, com a existência de 4 estágios (reação inicial, indução, aceleração e desaceleração), com a diferença que estes estágios ocorrem a velocidade muito mais alta nos cimentos de fosfato de magnésio. Este estudo foi realizado utilizando a espetroscopia de impedâncias, acompanhada pela monitorização da evolução de temperatura ao longo do tempo de reação e, por paragem de reação, identificando as fases cristalinas formadas. A investigação do mecanismo de reação foi complementada com a observação da microestrutura dos cimentos formados e permitiu concluir que a origem da magnésia usada não afeta a reação nem as propriedades do cimento final. A metodologia de superfície de resposta foi utilizada para o estudo e otimização das características finais do produto, tendo-se mostrado um método muito eficaz. Para o estudo da variação da área superficial específica da magnésia com as condições de calcinação (temperatura e tempo de patamar) usou-se o planeamento fatorial de experiências tendo sido obtido um modelo matemático que relaciona a resposta da área superficial específica da magnésia com as condições de calcinação. As propriedades finais dos cimentos (resistência mecânica à compressão e absorção de água) foram estudadas utilizando o planeamento simplex de experiências, que permitiu encontrar modelos que relacionam a propriedade em estudo com os valores das variáveis (razão molar MgO:MAP, área superficial específica da magnésia e quantidade de ácido bórico). Estes modelos podem ser usados para formular composições e produzir cimentos com propriedades finais específicas.
Resumo:
Ao longo das últimas décadas, a micromoldação (u-moldação) por injeção de termoplásticos ganhou um lugar de destaque no mercado de equipamentos eletrónicos e de uma ampla gama de componentes mecânicos. No entanto, quando o tamanho do componente diminui, os pressupostos geralmente aceites na moldação por injeção convencional deixam de ser válidos para descrever o comportamento reológico e termomecânico do polímero na microimpressão. Por isso, a compreensão do comportamento dinâmico do polímero à escala micro bem como da sua caraterização, análise e previsão das propriedades mecânicas exige uma investigação mais alargada. O objetivo principal deste programa doutoral passa por uma melhor compreensão do fenómeno físico intrínseco ao processo da μ-moldação por injeção. Para cumprir com o objetivo estabelecido, foi efetuado um estudo paramétrico do processo de μ-moldação por injeção, cujos resultados foram comparados com os resultados obtidos por simulação numérica. A caracterização dinâmica mecânica das μ-peças foi efetuada com o objetivo de recolher os dados necessários para a previsão do desempenho mecânico das mesmas, a longo prazo. Finalmente, depois da calibração do modelo matemático do polímero, foram realizadas análises estruturais com o intuito de prever o desempenho mecânico das μ-peças no longo prazo. Verificou-se que o desempenho mecânico das μ-peças pode ser significativamente afetado pelas tensões residuais de origem mecânica e térmica. Estas últimas, resultantes do processo de fabrico e das condições de processamento, por isso, devem ser consideradas na previsão do desempenho mecânico e do tempo de serviço das u-moldações.
Resumo:
Apesar das recentes inovações tecnológicas, o setor dos transportes continua a exercer impactes significativos sobre a economia e o ambiente. Com efeito, o sucesso na redução das emissões neste setor tem sido inferior ao desejável. Isto deve-se a diferentes fatores como a dispersão urbana e a existência de diversos obstáculos à penetração no mercado de tecnologias mais limpas. Consequentemente, a estratégia “Europa 2020” evidencia a necessidade de melhorar a eficiência no uso das atuais infraestruturas rodoviárias. Neste contexto, surge como principal objetivo deste trabalho, a melhoria da compreensão de como uma escolha de rota adequada pode contribuir para a redução de emissões sob diferentes circunstâncias espaciais e temporais. Simultaneamente, pretende-se avaliar diferentes estratégias de gestão de tráfego, nomeadamente o seu potencial ao nível do desempenho e da eficiência energética e ambiental. A integração de métodos empíricos e analíticos para avaliação do impacto de diferentes estratégias de otimização de tráfego nas emissões de CO2 e de poluentes locais constitui uma das principais contribuições deste trabalho. Esta tese divide-se em duas componentes principais. A primeira, predominantemente empírica, baseou-se na utilização de veículos equipados com um dispositivo GPS data logger para recolha de dados de dinâmica de circulação necessários ao cálculo de emissões. Foram percorridos aproximadamente 13200 km em várias rotas com escalas e características distintas: área urbana (Aveiro), área metropolitana (Hampton Roads, VA) e um corredor interurbano (Porto-Aveiro). A segunda parte, predominantemente analítica, baseou-se na aplicação de uma plataforma integrada de simulação de tráfego e emissões. Com base nesta plataforma, foram desenvolvidas funções de desempenho associadas a vários segmentos das redes estudadas, que por sua vez foram aplicadas em modelos de alocação de tráfego. Os resultados de ambas as perspetivas demonstraram que o consumo de combustível e emissões podem ser significativamente minimizados através de escolhas apropriadas de rota e sistemas avançados de gestão de tráfego. Empiricamente demonstrou-se que a seleção de uma rota adequada pode contribuir para uma redução significativa de emissões. Foram identificadas reduções potenciais de emissões de CO2 até 25% e de poluentes locais até 60%. Através da aplicação de modelos de tráfego demonstrou-se que é possível reduzir significativamente os custos ambientais relacionados com o tráfego (até 30%), através da alteração da distribuição dos fluxos ao longo de um corredor com quatro rotas alternativas. Contudo, apesar dos resultados positivos relativamente ao potencial para a redução de emissões com base em seleções de rotas adequadas, foram identificadas algumas situações de compromisso e/ou condicionantes que devem ser consideradas em futuros sistemas de eco navegação. Entre essas condicionantes importa salientar que: i) a minimização de diferentes poluentes pode implicar diferentes estratégias de navegação, ii) a minimização da emissão de poluentes, frequentemente envolve a escolha de rotas urbanas (em áreas densamente povoadas), iii) para níveis mais elevados de penetração de dispositivos de eco-navegação, os impactos ambientais em todo o sistema podem ser maiores do que se os condutores fossem orientados por dispositivos tradicionais focados na minimização do tempo de viagem. Com este trabalho demonstrou-se que as estratégias de gestão de tráfego com o intuito da minimização das emissões de CO2 são compatíveis com a minimização do tempo de viagem. Por outro lado, a minimização de poluentes locais pode levar a um aumento considerável do tempo de viagem. No entanto, dada a tendência de redução nos fatores de emissão dos poluentes locais, é expectável que estes objetivos contraditórios tendam a ser minimizados a médio prazo. Afigura-se um elevado potencial de aplicação da metodologia desenvolvida, seja através da utilização de dispositivos móveis, sistemas de comunicação entre infraestruturas e veículos e outros sistemas avançados de gestão de tráfego.
Resumo:
A evolução constante em novas tecnologias que providenciam suporte à forma como os nossos dispositivos se ligam, bem como a forma como utilizamos diferentes capacidades e serviços on-line, criou um conjunto sem precedentes de novos desafios que motivam o desenvolvimento de uma recente área de investigação, denominada de Internet Futura. Nesta nova área de investigação, novos aspectos arquiteturais estão ser desenvolvidos, os quais, através da re-estruturação de componentes nucleares subjacentesa que compõem a Internet, progride-a de uma forma capaz de não são fazer face a estes novos desafios, mas também de a preparar para os desafios de amanhã. Aspectos chave pertencendo a este conjunto de desafios são os ambientes de rede heterogéneos compostos por diferentes tipos de redes de acesso, a cada vez maior mudança do tráfego peer-to-peer (P2P) como o tipo de tráfego mais utilizado na Internet, a orquestração de cenários da Internet das Coisas (IoT) que exploram mecanismos de interação Maquinaa-Maquina (M2M), e a utilização de mechanismos centrados na informação (ICN). Esta tese apresenta uma nova arquitetura capaz de simultaneamente fazer face a estes desafios, evoluindo os procedimentos de conectividade e entidades envolvidas, através da adição de uma camada de middleware, que age como um mecanismo de gestão de controlo avançado. Este mecanismo de gestão de controlo aproxima as entidades de alto nível (tais como serviços, aplicações, entidades de gestão de mobilidade, operações de encaminhamento, etc.) com as componentes das camadas de baixo nível (por exemplo, camadas de ligação, sensores e atuadores), permitindo uma otimização conjunta dos procedimentos de ligação subjacentes. Os resultados obtidos não só sublinham a flexibilidade dos mecanismos que compoem a arquitetura, mas também a sua capacidade de providenciar aumentos de performance quando comparados com outras soluÇÕes de funcionamento especÍfico, enquanto permite um maior leque de cenáios e aplicações.
Resumo:
A integridade do sinal em sistemas digitais interligados de alta velocidade, e avaliada através da simulação de modelos físicos (de nível de transístor) é custosa de ponto vista computacional (por exemplo, em tempo de execução de CPU e armazenamento de memória), e exige a disponibilização de detalhes físicos da estrutura interna do dispositivo. Esse cenário aumenta o interesse pela alternativa de modelação comportamental que descreve as características de operação do equipamento a partir da observação dos sinais eléctrico de entrada/saída (E/S). Os interfaces de E/S em chips de memória, que mais contribuem em carga computacional, desempenham funções complexas e incluem, por isso, um elevado número de pinos. Particularmente, os buffers de saída são obrigados a distorcer os sinais devido à sua dinâmica e não linearidade. Portanto, constituem o ponto crítico nos de circuitos integrados (CI) para a garantia da transmissão confiável em comunicações digitais de alta velocidade. Neste trabalho de doutoramento, os efeitos dinâmicos não-lineares anteriormente negligenciados do buffer de saída são estudados e modulados de forma eficiente para reduzir a complexidade da modelação do tipo caixa-negra paramétrica, melhorando assim o modelo standard IBIS. Isto é conseguido seguindo a abordagem semi-física que combina as características de formulação do modelo caixa-negra, a análise dos sinais eléctricos observados na E/S e propriedades na estrutura física do buffer em condições de operação práticas. Esta abordagem leva a um processo de construção do modelo comportamental fisicamente inspirado que supera os problemas das abordagens anteriores, optimizando os recursos utilizados em diferentes etapas de geração do modelo (ou seja, caracterização, formulação, extracção e implementação) para simular o comportamento dinâmico não-linear do buffer. Em consequência, contributo mais significativo desta tese é o desenvolvimento de um novo modelo comportamental analógico de duas portas adequado à simulação em overclocking que reveste de um particular interesse nas mais recentes usos de interfaces de E/S para memória de elevadas taxas de transmissão. A eficácia e a precisão dos modelos comportamentais desenvolvidos e implementados são qualitativa e quantitativamente avaliados comparando os resultados numéricos de extracção das suas funções e de simulação transitória com o correspondente modelo de referência do estado-da-arte, IBIS.
Resumo:
Alzheimer’s disease is a chronic progressive neurodegenerative disease and is the most common form of dementia (estimated 50−60% of all cases), associated with loss of memory (in particular episodic memory), cognitive decline, and behavioural and physical disability, ultimately leading to death. Alzheimer’s disease is a complex disease, mostly occurring sporadically with no apparent inheritance and being the age the main risk factor. The production and accumulation of amyloid-beta peptide in the central nervous system is a key event in the development of Alzheimer’s disease. This project is devoted to the synthesis of amyloid-beta ligands, fluorophores and blood brain barrier-transporters for diagnosis and therapy of Alzheimer’s disease. Different amyloid-beta ligands will be synthesized and their ability to interact with amyloid-beta plaques will be studied with nuclear magnetic resonance techniques and a process of lead optimization will be performed. Many natural and synthetic compounds able to interact as amyloid-beta ligands have been identified. Among them, a set of small molecules in which aromatic moieties seem to play a key role to inhibit amyloid-beta aggregation, in particular heteroaromatic polycyclic compounds such as tetracyclines. Nevertheless tetracyclines suffer from chemical instability, low water solubility and possess, in this contest, undesired anti-bacterial activity. In order to overcome these limitations, one of our goals is to synthesize tetracyclines analogues bearing a polycyclic structure with improved chemical stability and water solubility, possibly lacking antibacterial activity but conserving the ability to interact with amyloid-beta peptides. Known tetracyclines have in common a fourth cycle without an aromatic character and with different functionalisations. We aim to synthesize derivatives in which this cycle is represented by a sugar moiety, thus bearing different derivatisable positions or create derivatives in which we will increase or decrease the number of fused rings. In order to generate a potential drug-tool candidate, these molecules should also possess the correct chemical-physical characteristics. The glycidic moiety, not being directly involved in the binding, it assures further possible derivatizations, such as conjugation to others molecular entities (nanoparticles, polymeric supports, etc.), and functionalization with chemical groups able to modulate the hydro/lipophilicity. In order to be useful such compounds should perform their action within the brain, therefore they have to be able to cross the blood brain barrier, and to be somehow detected for diagnostic purposes.