8 resultados para Mitigate
em Repositório Institucional da Universidade de Aveiro - Portugal
Resumo:
O desenvolvimento de betões de elevado desempenho, durante o início da década de 80, revelou que este tipo particular de materiais com base em cimento é susceptível a problemas de cura. São bem conhecidos os efeitos dos fenómenos autogéneos em sistemas de elevado desempenho com base em cimento, nomeadamente a fissuração em idade jovem. Esta é, aliás vista como a maior limitação no desenvolvimento de novos materiais com durabilidade superior. Desenvolvimentos recentes de métodos de cura interna provaram ser uma boa estratégia de mitigação dos efeitos da auto-dissecação destes sistemas, onde a presente tese ganha o seu espaço no tempo. Este estudo centra-se essencialmente em sistemas de elevado desempenho com base em cimento com cura interna através de partículas superabsorventes, dando particular importância à alteração de volume em idade jovem. Da análise mais aprofundada deste método, resultam algumas limitações na sua aplicabilidade, especialmente em sistemas modificados com sílica de fumo. Conclui-se que a natureza física e química dos polímeros superabsorventes pode afectar significativamente a eficiência da cura interna. Em adição, os mecanismos de cura interna são discutidos mais profundamente, sendo que para além dos mecanismos baseados em fenómenos físicos e químicos, parecem existir efeitos mecânicos significativos. Várias técnicas foram utilizadas durante o decorrer desta investigação, com o objectivo, para além da caracterização de certas propriedades dos materiais, de perseguir as questões deixadas em aberto pela comunidade internacional, relativamente aos mecanismos que fundamentam a explicação dos fenómenos autogéneos. Como exemplo, são apresentados os estudos sobre hidratação dos sistemas para avaliação do problema numa escala microscópica, em vez de macroscópica. Uma nova técnica de cura interna emerge da investigação, baseada na utilização de agregados finos como veiculo para mitigar parcialmente a retracção autogénea. Até aqui, esta técnica não encontra par em investigação anterior, mas a extensão da cura interna ou a eficácia na mitigação baseada neste conceito encontra algumas limitações. A significância desta técnica em prevenir a micro fissuração é um aspecto que está ainda em aberto, mas pode concluir-se que os agregados finos podem ser benéficos na redução dos efeitos da restrição localizada no sistema, reduzindo o risco de micro fissuração. A utilização combinada de partículas finas de agregado e polímeros super absorventes pode ter como consequência betão sem microfissuração, ou pelo menos com nanofissuração.
Resumo:
Congestion control in wireless networks is an important and open issue. Previous research has proven the poor performance of the Transport Control Protocol (TCP) in such networks. The factors that contribute to the poor performance of TCP in wireless environments concern its unsuitability to identify/detect and react properly to network events, its TCP window based ow control algorithm that is not suitable for the wireless channel, and the congestion collapse due to mobility. New rate based mechanisms have been proposed to mitigate TCP performance in wired and wireless networks. However, these mechanisms also present poor performance, as they lack of suitable bandwidth estimation techniques for multi-hop wireless networks. It is thus important to improve congestion control performance in wireless networks, incorporating components that are suitable for wireless environments. A congestion control scheme which provides an e - cient and fair sharing of the underlying network capacity and available bandwidth among multiple competing applications is crucial to the definition of new e cient and fair congestion control schemes on wireless multi-hop networks. The Thesis is divided in three parts. First, we present a performance evaluation study of several congestion control protocols against TCP, in wireless mesh and ad-hoc networks. The obtained results show that rate based congestion control protocols need an eficient and accurate underlying available bandwidth estimation technique. The second part of the Thesis presents a new link capacity and available bandwidth estimation mechanism denoted as rt-Winf (real time wireless inference). The estimation is performed in real-time and without the need to intrusively inject packets in the network. Simulation results show that rt-Winf obtains the available bandwidth and capacity estimation with accuracy and without introducing overhead trafic in the network. The third part of the Thesis proposes the development of new congestion control mechanisms to address the congestion control problems of wireless networks. These congestion control mechanisms use cross layer information, obtained by rt-Winf, to accurately and eficiently estimate the available bandwidth and the path capacity over a wireless network path. Evaluation of these new proposed mechanisms, through ns-2 simulations, shows that the cooperation between rt-Winf and the congestion control algorithms is able to significantly increase congestion control eficiency and network performance.
Resumo:
No contexto dos contaminantes aquáticos, os herbicidas são considerados como um dos grupos mais perigosos. Uma vez aplicados, estes são facilmente transportados para cursos de água, quer devido a uma pulverização pouco cuidada ou devido a fenómenos de escorrência superficial e/ou subterrânea. A presença destes agroquímicos no ambiente tem vindo a ser associada a efeitos nefastos em organismos não-alvo, como é o caso dos peixes. Contudo, existe ainda uma grande lacuna no que diz respeito à informação científica relacionada com o seu impacto genotóxico. Deste modo, a presente tese foi delineada com o intuito de avaliar o risco genotóxico em peixes de duas formulações de herbicidas: o Roundup®, que tem como princípio activo o glifosato, e o Garlon®, que apresenta o triclopir na base da sua constituição, produtos estes largamente utilizados na limpeza de campos agrícolas, assim como em florestas. Foi ainda planeado desenvolver uma base de conhecimento no que diz respeito aos mecanismos de dano do ADN. Como último objectivo, pretendeu-se contribuir para a mitigação dos efeitos dos agroquímicos no biota aquático, nomeadamente em peixes, fornecendo dados científicos no sentido de melhorar as práticas agrícolas e florestais. Este estudo foi realizado adoptando a enguia europeia (Anguilla anguilla L.) como organismo-teste, e submetendo-a a exposições de curta duração (1 e 3 dias) dos produtos comerciais mencionados, em concentrações consideradas ambientalmente realistas. Para a avaliação da genotoxicidade foram aplicadas duas metodologias: o ensaio do cometa e o teste das anomalias nucleares eritrocíticas (ANE). Enquanto o ensaio do cometa detecta quebras na cadeia do ADN, um dano passível de ser reparado, o aparecimento das ANE revela lesões cromossomais, sinalizando um tipo de dano de difícil reparação. O ensaio do cometa foi ainda melhorado com uma nova etapa que incluiu a incubação com enzimas de reparação (FPG e EndoIII), permitindo perceber a ocorrência de dano oxidativo no ADN. No que diz respeito ao Roundup®, o envolvimento do sistema antioxidante como indicador de um estado próoxidante foi também alvo de estudo. Uma vez que as referidas formulações se apresentam sob a forma de misturas, o potencial genotóxico dos seus princípios activos foi também avaliado individualmente. No caso particular do Roundup®, também foram estudados o seu surfactante (amina polietoxilada; POEA) e o principal metabolito ambiental (ácido aminometilfosfórico; AMPA). Os resultados obtidos mostraram a capacidade do Roundup® em induzir tanto dano no ADN (em células de sangue, guelras e fígado) como dano cromossómico (em células de sangue). A investigação sobre o possível envolvimento do stresse oxidativo demonstrou que o tipo de dano no ADN varia com as concentrações testadas e com a duração da exposição. Deste modo, com o aumento do tempo de exposição, os processos relacionados com o envolvimento de espécies reactivas de oxigénio (ERO) ganharam preponderância como mecanismo de dano no ADN, facto que é corroborado pela activação do sistema antioxidante observado nas guelras, assim como pelo aumento dos sítios sensíveis a FPG em hepatócitos. O glifosato e o POEA foram também considerados genotóxicos. O POEA mostrou induzir uma maior extensão de dano no ADN, tanto comparado com o glifosato como com a mistura comercial. Apesar de ambos os componentes contribuirem para a genotoxicidade da formulação, a soma dos seus efeitos individuais nunca foi observada, apontando para um antagonismo entre eles e indicando que o POEA não aumenta o risco associado ao princípio activo. Deste modo, realça-se a necessidade de regulamentar limiares de segurança para todos os componentes da formulação, recomendando, em particular, a revisão da classificação do risco do POEA (actualmente classificado com “inerte”). Uma vez confirmada a capacidade do principal metabolito do glifosato – AMPA – em exercer dano no ADN assim como dano cromossómico, os produtos da degradação ambiental dos princípios activos assumem-se como um problema silencioso, realçando assim a importância de incluir o AMPA na avaliação do risco relacionado com herbicidas com base no glifosato. A formulação Garlon® e o seu princípio activo triclopir mostraram um claro potencial genotóxico. Adicionalmente, o Garlon® mostrou possuir um potencial genotóxico mais elevado do que o seu princípio activo. No entanto, a capacidade de infligir dano oxidativo no ADN não foi demonstrada para nenhum dos agentes. No que concerne à avaliação da progressão do dano após a remoção da fonte de contaminação, nem os peixes expostos a Roundup® nem os expostos a Garlon® conseguiram restaurar completamente a integridade do seu ADN ao fim de 14 dias. No que concerne ao Roundup®, o uso de enzimas de reparação de lesões específicas do ADN associado ao teste do cometa permitiu detectar um aparecimento tardio de dano oxidativo, indicando deste modo um decaimento progressivo da protecção antioxidante e ainda uma incapacidade de reparar este tipo de dano. O período de pós-exposição correspondente ao Garlon® revelou uma tendência de diminuição dos níveis de dano, apesar de nunca se observar uma completa recuperação. Ainda assim, foi evidente uma intervenção eficiente das enzimas de reparação do ADN, mais concretamente as direccionadas às purinas oxidadas. A avaliação das metodologias adoptadas tornou evidente que o procedimento base do ensaio do cometa, que detecta apenas o dano nãoespecífico no ADN, possui algumas limitações quando comparado com a metodologia que incluiu a incubação com as enzimas de reparação, uma vez que a última mostrou reduzir a possibilidade de ocorrência de resultados falsos negativos. Os dois parâmetros adoptados (ensaio do cometa e teste das ANE) demonstraram possuir aptidões complementares, sendo assim recomendado a sua utilização conjunta com vista a efectuar uma avaliação mais adequada do risco genotóxico. Globalmente, os resultados obtidos forneceram indicações de grande utilidade para as entidades reguladoras, contribuindo ainda para a (re)formulação de medidas de conservação do ambiente aquático. Neste sentido, os dados obtidos apontam para a importância da avaliação de risco dos herbicidas incluir testes de genotoxicidade. A magnitude de risco detectada para ambas as formulações adverte para a necessidade de adopção de medidas restritivas em relação à sua aplicação na proximidade de cursos de água. Como medidas mitigadoras de impactos ambientais, aponta-se o desenvolvimento de formulações que incorporem adjuvantes selecionados com base na sua baixa toxicidade.
Resumo:
Coordenação Multicélula é um tópico de investigação em rápido crescimento e uma solução promissora para controlar a interferência entre células em sistemas celulares, melhorando a equidade do sistema e aumentando a sua capacidade. Esta tecnologia já está em estudo no LTEAdvanced sob o conceito de coordenação multiponto (COMP). Existem várias abordagens sobre coordenação multicélula, dependendo da quantidade e do tipo de informação partilhada pelas estações base, através da rede de suporte (backhaul network), e do local onde essa informação é processada, i.e., numa unidade de processamento central ou de uma forma distribuída em cada estação base. Nesta tese, são propostas técnicas de pré-codificação e alocação de potência considerando várias estratégias: centralizada, todo o processamento é feito na unidade de processamento central; semidistribuída, neste caso apenas parte do processamento é executado na unidade de processamento central, nomeadamente a potência alocada a cada utilizador servido por cada estação base; e distribuída em que o processamento é feito localmente em cada estação base. Os esquemas propostos são projectados em duas fases: primeiro são propostas soluções de pré-codificação para mitigar ou eliminar a interferência entre células, de seguida o sistema é melhorado através do desenvolvimento de vários esquemas de alocação de potência. São propostas três esquemas de alocação de potência centralizada condicionada a cada estação base e com diferentes relações entre desempenho e complexidade. São também derivados esquemas de alocação distribuídos, assumindo que um sistema multicelular pode ser visto como a sobreposição de vários sistemas com uma única célula. Com base neste conceito foi definido uma taxa de erro média virtual para cada um desses sistemas de célula única que compõem o sistema multicelular, permitindo assim projectar esquemas de alocação de potência completamente distribuídos. Todos os esquemas propostos foram avaliados em cenários realistas, bastante próximos dos considerados no LTE. Os resultados mostram que os esquemas propostos são eficientes a remover a interferência entre células e que o desempenho das técnicas de alocação de potência propostas é claramente superior ao caso de não alocação de potência. O desempenho dos sistemas completamente distribuídos é inferior aos baseados num processamento centralizado, mas em contrapartida podem ser usados em sistemas em que a rede de suporte não permita a troca de grandes quantidades de informação.
Resumo:
In recent years, a new paradigm for communication called cooperative communications has been proposed for which initial information theoretic studies have shown the potential for improvements in capacity over traditional multi-hop wireless networks. Extensive research has been done to mitigate the impact of fading in wireless networks, being mostly focused on Multiple-Input Multiple-Output (MIMO) systems. Recently, cooperative relaying techniques have been investigated to increase the performance of wireless systems by using diversity created by different single antenna devices, aiming to reach the same level of performance of MIMO systems with low cost devices. Cooperative communication is a promising method to achieve high spectrum efficiency and improve transmission capacity for wireless networks. Cooperative communications is the general idea of pooling the resources of distributed nodes to improve the overall performance of a wireless network. In cooperative networks the nodes cooperate to help each other. A cooperative node offering help is acting like a middle man or proxy and can convey messages from source to destination. Cooperative communication involves exploiting the broadcast nature of the wireless medium to form virtual antenna arrays out of independent singleantenna network nodes for transmission. This research aims at contributing to the field of cooperative wireless networks. The focus of this research is on the relay-based Medium Access Control (MAC) protocol. Specifically, I provide a framework for cooperative relaying called RelaySpot which comprises on opportunistic relay selection, cooperative relay scheduling and relay switching. RelaySpot-based solutions are expected to minimize signaling exchange, remove estimation of channel conditions, and improve the utilization of spatial diversity, minimizing outage and increasing reliability.
Resumo:
Future emerging market trends head towards positioning based services placing a new perspective on the way we obtain and exploit positioning information. On one hand, innovations in information technology and wireless communication systems enabled the development of numerous location based applications such as vehicle navigation and tracking, sensor networks applications, home automation, asset management, security and context aware location services. On the other hand, wireless networks themselves may bene t from localization information to improve the performances of di erent network layers. Location based routing, synchronization, interference cancellation are prime examples of applications where location information can be useful. Typical positioning solutions rely on measurements and exploitation of distance dependent signal metrics, such as the received signal strength, time of arrival or angle of arrival. They are cheaper and easier to implement than the dedicated positioning systems based on ngerprinting, but at the cost of accuracy. Therefore intelligent localization algorithms and signal processing techniques have to be applied to mitigate the lack of accuracy in distance estimates. Cooperation between nodes is used in cases where conventional positioning techniques do not perform well due to lack of existing infrastructure, or obstructed indoor environment. The objective is to concentrate on hybrid architecture where some nodes have points of attachment to an infrastructure, and simultaneously are interconnected via short-range ad hoc links. The availability of more capable handsets enables more innovative scenarios that take advantage of multiple radio access networks as well as peer-to-peer links for positioning. Link selection is used to optimize the tradeo between the power consumption of participating nodes and the quality of target localization. The Geometric Dilution of Precision and the Cramer-Rao Lower Bound can be used as criteria for choosing the appropriate set of anchor nodes and corresponding measurements before attempting location estimation itself. This work analyzes the existing solutions for node selection in order to improve localization performance, and proposes a novel method based on utility functions. The proposed method is then extended to mobile and heterogeneous environments. Simulations have been carried out, as well as evaluation with real measurement data. In addition, some speci c cases have been considered, such as localization in ill-conditioned scenarios and the use of negative information. The proposed approaches have shown to enhance estimation accuracy, whilst signi cantly reducing complexity, power consumption and signalling overhead.
Resumo:
The ever-growing energy consumption in mobile networks stimulated by the expected growth in data tra ffic has provided the impetus for mobile operators to refocus network design, planning and deployment towards reducing the cost per bit, whilst at the same time providing a signifi cant step towards reducing their operational expenditure. As a step towards incorporating cost-eff ective mobile system, 3GPP LTE-Advanced has adopted the coordinated multi-point (CoMP) transmission technique due to its ability to mitigate and manage inter-cell interference (ICI). Using CoMP the cell average and cell edge throughput are boosted. However, there is room for reducing energy consumption further by exploiting the inherent exibility of dynamic resource allocation protocols. To this end packet scheduler plays the central role in determining the overall performance of the 3GPP longterm evolution (LTE) based on packet-switching operation and provide a potential research playground for optimizing energy consumption in future networks. In this thesis we investigate the baseline performance for down link CoMP using traditional scheduling approaches, and subsequently go beyond and propose novel energy e fficient scheduling (EES) strategies that can achieve power-e fficient transmission to the UEs whilst enabling both system energy effi ciency gain and fairness improvement. However, ICI can still be prominent when multiple nodes use common resources with di fferent power levels inside the cell, as in the so called heterogeneous networks (Het- Net) environment. HetNets are comprised of two or more tiers of cells. The rst, or higher tier, is a traditional deployment of cell sites, often referred to in this context as macrocells. The lower tiers are termed small cells, and can appear as microcell, picocells or femtocells. The HetNet has attracted signiffi cant interest by key manufacturers as one of the enablers for high speed data at low cost. Research until now has revealed several key hurdles that must be overcome before HetNets can achieve their full potential: bottlenecks in the backhaul must be alleviated, as well as their seamless interworking with CoMP. In this thesis we explore exactly the latter hurdle, and present innovative ideas on advancing CoMP to work in synergy with HetNet deployment, complemented by a novel resource allocation policy for HetNet tighter interference management. As system level simulator has been used to analyze the proposed algorithm/protocols, and results have concluded that up to 20% energy gain can be observed.
Resumo:
The better understanding of the interactions between climate change and air quality is an emerging priority for research and policy. Climate change will bring changes in the climate system, which will affect the concentration and dispersion of air pollutants. The main objective of the current study is to assess the impacts of climate change on air quality in 2050 over Portugal and Porto urban area. First, an evaluation and characterization of the air quality over mainland Portugal was performed for the period between 2002 and 2012. The results show that NO2, PM10 and O3 are the critical pollutants in Portugal. Also, the influence of meteorology on O3, NO2 and PM10 levels was investigate in the national main urban areas (Porto and Lisboa) and was verified that O3 has a statistically significant relationship with temperature in most of the components. The results also indicate that emission control strategies are primary regulators for NO2 and PM10 levels. After, understanding the national air quality problems and the influence that meteorology had in the historical air quality levels, the air quality modelling system WRF-CAMx was tested and the required inputs for the simulations were prepared to fulfil the main goal of this work. For the required air quality modelling inputs, an Emission Projections under RCP scenarios (EmiPro-RCP) model was developed to assist the estimation of future emission inventories for GHG and common air pollutants. Also, the current emissions were estimated for Portugal with a higher detailed disaggregation to improve the performance of the air quality simulations. The air quality modelling system WRF/CAMx was tested and evaluated over Portugal and Porto urban area and the results point out that is an adequate tool for the analysis of air quality under climate change. For this purpose, regional simulations of air quality during historical period and future (2045-2050) were conducted with CAMx version 6.0 to evaluate the impacts of simulated future climate and anthropogenic emission projections on air quality over the study area. The climate and the emission projections were produced under the RCP8.5 scenario. The results from the simulations point out, that if the anthropogenic emissions keep the same in 2050, the concentrations of NO2, PM10 and O3 will increase in Portugal. When, besides the climate change effects, is consider the projected anthropogenic emissions the annual mean concentrations of NO2 decrease significantly in Portugal and Porto urban area, and on the contrary the annual mean PM10 concentrations increases in Portugal and decrease in Porto urban area. The O3 results are mainly caused by the reduction of ozone precursors, getting the higher reductions in urban areas and increases in the surrounding areas. All the analysis performed for both simulations for Porto urban area support that, for PM10 and O3, there will be an increase in the occurrence of extreme values, surpassing the annual legislated parameters and having more daily exceedances. This study constitutes an innovative scientific tool to help in future air quality management in order to mitigate future climate change impacts on air quality.