11 resultados para Kähler Metrics
em Repositório Institucional da Universidade de Aveiro - Portugal
Resumo:
Na última década tem-se assistido a um crescimento exponencial das redes de comunicações sem fios, nomeadamente no que se refere a taxa de penetração do serviço prestado e na implementação de novas infra-estruturas em todo o globo. É ponto assente neste momento que esta tendência irá não só continuar como se fortalecer devido à convergência que é esperada entre as redes móveis sem fio e a disponibilização de serviços de banda larga para a rede Internet fixa, numa evolução para um paradigma de uma arquitectura integrada e baseada em serviços e aplicações IP. Por este motivo, as comunicações móveis sem fios irão ter um papel fundamental no desenvolvimento da sociedade de informação a médio e longo prazos. A estratégia seguida no projecto e implementação das redes móveis celulares da actual geração (2G e 3G) foi a da estratificação da sua arquitectura protocolar numa estrutura modular em camadas estanques, onde cada camada do modelo é responsável pela implementação de um conjunto de funcionalidades. Neste modelo a comunicação dá-se apenas entre camadas adjacentes através de primitivas de comunicação pré-estabelecidas. Este modelo de arquitectura resulta numa mais fácil implementação e introdução de novas funcionalidades na rede. Entretanto, o facto das camadas inferiores do modelo protocolar não utilizarem informação disponibilizada pelas camadas superiores, e vice-versa acarreta uma degradação no desempenho do sistema. Este paradigma é particularmente importante quando sistemas de antenas múltiplas são implementados (sistemas MIMO). Sistemas de antenas múltiplas introduzem um grau adicional de liberdade no que respeita a atribuição de recursos rádio: o domínio espacial. Contrariamente a atribuição de recursos no domínio do tempo e da frequência, no domínio espacial os recursos rádio mapeados no domínio espacial não podem ser assumidos como sendo completamente ortogonais, devido a interferência resultante do facto de vários terminais transmitirem no mesmo canal e/ou slots temporais mas em feixes espaciais diferentes. Sendo assim, a disponibilidade de informação relativa ao estado dos recursos rádio às camadas superiores do modelo protocolar é de fundamental importância na satisfação dos critérios de qualidade de serviço exigidos. Uma forma eficiente de gestão dos recursos rádio exige a implementação de algoritmos de agendamento de pacotes de baixo grau de complexidade, que definem os níveis de prioridade no acesso a esses recursos por base dos utilizadores com base na informação disponibilizada quer pelas camadas inferiores quer pelas camadas superiores do modelo. Este novo paradigma de comunicação, designado por cross-layer resulta na maximização da capacidade de transporte de dados por parte do canal rádio móvel, bem como a satisfação dos requisitos de qualidade de serviço derivados a partir da camada de aplicação do modelo. Na sua elaboração, procurou-se que o standard IEEE 802.16e, conhecido por Mobile WiMAX respeitasse as especificações associadas aos sistemas móveis celulares de quarta geração. A arquitectura escalonável, o baixo custo de implementação e as elevadas taxas de transmissão de dados resultam num processo de multiplexagem de dados e valores baixos no atraso decorrente da transmissão de pacotes, os quais são atributos fundamentais para a disponibilização de serviços de banda larga. Da mesma forma a comunicação orientada à comutação de pacotes, inenente na camada de acesso ao meio, é totalmente compatível com as exigências em termos da qualidade de serviço dessas aplicações. Sendo assim, o Mobile WiMAX parece satisfazer os requisitos exigentes das redes móveis de quarta geração. Nesta tese procede-se à investigação, projecto e implementação de algoritmos de encaminhamento de pacotes tendo em vista a eficiente gestão do conjunto de recursos rádio nos domínios do tempo, frequência e espacial das redes móveis celulares, tendo como caso prático as redes móveis celulares suportadas no standard IEEE802.16e. Os algoritmos propostos combinam métricas provenientes da camada física bem como os requisitos de qualidade de serviço das camadas superiores, de acordo com a arquitectura de redes baseadas no paradigma do cross-layer. O desempenho desses algoritmos é analisado a partir de simulações efectuadas por um simulador de sistema, numa plataforma que implementa as camadas física e de acesso ao meio do standard IEEE802.16e.
Resumo:
Os ecossistemas de água doce – responsáveis por funções ambientais importantes e pelo fornecimento de bens e serviços insubstituíveis – têm vindo a ser severamente afectados por perturbações antropogénicas. A conversão de floresta em terreno agrícola afecta os sistemas aquáticos através de uma série de mecanismos: sedimentação; excesso de nutrientes; contaminação; alterações hidrológicas; e remoção de vegetação ripícola. As comunidades de macroinvertebrados de água doce – devido à sua diversidade, ubiquidade e sensibilidade às perturbações ambientais – revelam-se como particularmente adequadas para estudos de avaliação da integridade ecológica destes sistemas expostos simultaneamente a múltiplos factores de impacto. O uso sistemático de respostas biológicas para avaliação de mudanças ambientais – ou biomonitorização – pode ser levado a cabo através de diversas metodologias, que, de uma forma geral, não consideram aspectos funcionais das comunidades biológicas e têm aplicabilidade geograficamente restrita. A biomonitorização através de atributos biológicos (características que reflectem a adaptação das espécies ao seu meio ambiente) revela-se como uma ferramenta promissora na resolução dos problemas referidos, apresentando vantagens adicionais: relações causa-efeito directas; melhoria na diferenciação de impactos; e integração da variabilidade natural. O presente estudo apresenta uma revisão critica do estado-da-arte actual na área do uso de atributos biológicos em biomonitorização. Até à data de publicação, não estava disponível nenhum outro trabalho com a base conceptual do uso de atributos de macroinvertebrados enquanto descritores de comunidades e para efeitos de biomonitorização e gestão de sistemas de água doce. Descrevem-se as teorias ecológicas de suporte destas metodologias (conceitos de habitat-molde e de filtros paisagísticos) e os estudos que aplicaram estas teorias em cenários reais, tendo-se chamado a atenção para questões técnicas e possíveis soluções. As necessidades futuras nesta área englobam: o desenvolvimento de uma só ferramenta de biomonitorização de aplicação alargada; uma maior compreensão da variabilidade natural nas comunidades biológicas; diminuição dos efeitos de soluções de compromisso biológico e sindromas; realização de estudos autoecológicos adicionais; e detecção de impactos específicos em cenários de impacto complexos. Um dos objectivos deste estudo foi contribuir para a melhoria das técnicas de biomonitorização através de atributos, focalizando em comunidades de macroinvertebrados ribeirinhas em diferentes regiões biogeográficas (as bacias hidrográficas dos rios: Little e Salmon em New Brunswick, Canadá; Anllóns na Galiza, Espanha; Reventazón em Cartago, Costa Rica). Em cada região, foram estudados gradientes de uso agrícola de solo, incluindo desde bacias hidrográficas quase exclusivamente cobertas por floresta até bacias sob a influência maioritária de actividades agrícolas intensivas. Em cada gradiente de uso de solo, a caracterização da comunidade biológica (por amostragem de macroinvertebrados em troços de rápidos) foi acompanhada pela caracterização do habitat circundante (incluindo propriedades da bacia hidrográfica, análise química das águas e outras propriedades à escala local). A comunidade de macroinvertebrados foi caracterizada através de informação taxonómica, métricas estruturais, índices de diversidade, métricas de tolerância, índices bióticos e através da compilação de atributos biológicos e fisiológicos gerais, de história de vida e de resistência a perturbações. Análises estatísticas univariadas e multivariadas foram usadas para evidenciar os gradientes biológicos e físico-químicos, confirmar a sua co-variação, testar a significância da discriminação de níveis de impacto e estabelecer comparações inter-regionais. A estrutura de comunidades revelou os complexos gradientes de impacto, que por sua vez co-variaram significativamente com os gradientes de uso de solo. Os gradientes de impacto relacionaram-se sobretudo com entrada de nutrientes e sedimentação. Os gradientes biológicos definidos pelas medidas estruturais seleccionadas co-variaram com os gradientes de impacto estudados, muito embora apenas algumas variáveis estruturais tenham individualmente discriminado as categorias de uso de solo definidas a priori. Não foi detectada consistência nas respostas das medidas estruturais entre regiões biogeográficas, tendo-se confirmadado que as interpretações puramente taxonómicas de impactos são difíceis de extrapolar entre regiões. Os gradientes biológicos definidos através dos atributos seleccionados também co-variaram com os gradientes de perturbação, tendo sido possível obter uma melhor discriminação de categorias de uso de solo. Nas diferentes regiões, a discriminação de locais mais impactados foi feita com base num conjunto similar de atributos, que inclui tamanho, voltinismo, técnicas reproductivas, microhabitat, preferências de corrente e substrato, hábitos alimentares e formas de resistência. Este conjunto poderá vir a ser usado para avaliar de forma predictiva os efeitos das modificações severas de uso de solo impostas pela actividade agrícola. Quando analisadas simultaneamente através dos atributos, as comunidades das três regiões permitiram uma moderada mas significativa discriminação de níveis de impacto. Estas análises corroboram as evidências de que as mudanças nas comunidades de macroinvertebrados aquáticos em locais sob a influência de agricultura intensiva podem seguir uma trajectória convergente no espaço multidimensional, independentemente de factores geográficos. Foram fornecidas pistas para a identificação de parâmetros específicos que deverão ser tidos em conta no planeamento de novos programas de biomonitorização com comunidades de macroinvertebrados bentónicos, para aplicação numa gestão fluvial verdadeiramente ecológica, nestas e noutras regiões. Foram ainda sugeridas possíveis linhas futuras de investigação.
Resumo:
Um assunto que requer atenção é a avaliação ecológica da qualidade da água de ecossistemas de água doce. Uma abordagem que surge como promissora é a biomonitorização baseada em biomarcadores, porque pode avaliar a saúde dos organismos e obter sinais de alerta precoce acerca dos riscos ambientais. Até agora, porém, o uso de biomarcadores em espécies de invertebrados, para diagnosticar danos ecológicos nos rios, é escasso. Por essa razão, existe uma necessidade urgente de desenvolver biomarcadores nas principais espécies de macroinvertebrados dos ecossistemas fluviais que são alvo de estudo. Esta tese tem como objectivo averiguar se as respostas in situ, aliadas aos biomarcadores, podem ser um método viável para avaliar os danos ecológicos de contaminantes em ecossistemas de água doce. Numa primeira fase, os biomarcadores foram usados para averiguar os mecanismos fisiológicos de adaptação genética de clones de Daphnia magna ao pesticida organofosforado fenitrothion. Numa segunda fase, os biomarcadores foram usados como ferramentas de diagnóstico de poluição em zonas ribeirinhas. Estes estudos foram realizados com três espécies-chave de macroinvertebrados: Daphnia magna, Corbicula fluminea e Hydropsyche exocellata, nos rios Besós e Llobregat e no Delta do rio Ebro (NE Espanha). Além disso, foram realizados com animais capturados nos rios, ou com ensaios de transplantes, e foram complementados com índices biológicos de macroinvertebrados e análises químicas da água e dos animais. Como os contaminantes químicos têm vários modos toxicológicos de acção e, portanto, afectam várias respostas bioquímicas dos organismos, foram analisados nas três espécies um conjunto de biomarcadores pertencentes a diferentes vias metabólicas. A abordagem experimental indica que o uso combinado de biomarcadores e outras medidas, tais como índices biológicos e testes in situ, contribui para diagnosticar os efeitos prejudiciais de contaminantes nas comunidades ribeirinhas.
Resumo:
In the last decade, mobile wireless communications have witnessed an explosive growth in the user’s penetration rate and their widespread deployment around the globe. In particular, a research topic of particular relevance in telecommunications nowadays is related to the design and implementation of mobile communication systems of 4th generation (4G). 4G networks will be characterized by the support of multiple radio access technologies in a core network fully compliant with the Internet Protocol (all IP paradigms). Such networks will sustain the stringent quality of service (QoS) requirements and the expected high data rates from the type of multimedia applications (i.e. YouTube and Skype) to be available in the near future. Therefore, 4G wireless communications system will be of paramount importance on the development of the information society in the near future. As 4G wireless services will continue to increase, this will put more and more pressure on the spectrum availability. There is a worldwide recognition that methods of spectrum managements have reached their limit and are no longer optimal, therefore new paradigms must be sought. Studies show that most of the assigned spectrum is under-utilized, thus the problem in most cases is inefficient spectrum management rather spectrum shortage. There are currently trends towards a more liberalized approach of spectrum management, which are tightly linked to what is commonly termed as Cognitive Radio (CR). Furthermore, conventional deployment of 4G wireless systems (one BS in cell and mobile deploy around it) are known to have problems in providing fairness (users closer to the BS are more benefited relatively to the cell edge users) and in covering some zones affected by shadowing, therefore the use of relays has been proposed as a solution. To evaluate and analyse the performances of 4G wireless systems software tools are normally used. Software tools have become more and more mature in recent years and their need to provide a high level evaluation of proposed algorithms and protocols is now more important. The system level simulation (SLS) tools provide a fundamental and flexible way to test all the envisioned algorithms and protocols under realistic conditions, without the need to deal with the problems of live networks or reduced scope prototypes. Furthermore, the tools allow network designers a rapid collection of a wide range of performance metrics that are useful for the analysis and optimization of different algorithms. This dissertation proposes the design and implementation of conventional system level simulator (SLS), which afterwards enhances for the 4G wireless technologies namely cognitive Radios (IEEE802.22) and Relays (IEEE802.16j). SLS is then used for the analysis of proposed algorithms and protocols.
Resumo:
The renewed concern in assessing risks and consequences from technological hazards in industrial and urban areas continues emphasizing the development of local-scale consequence analysis (CA) modelling tools able to predict shortterm pollution episodes and exposure effects on humans and the environment in case of accident with hazardous gases (hazmat). In this context, the main objective of this thesis is the development and validation of the EFfects of Released Hazardous gAses (EFRHA) model. This modelling tool is designed to simulate the outflow and atmospheric dispersion of heavy and passive hazmat gases in complex and build-up areas, and to estimate the exposure consequences of short-term pollution episodes in accordance to regulatory/safety threshold limits. Five main modules comprising up-to-date methods constitute the model: meteorological, terrain, source term, dispersion, and effects modules. Different initial physical states accident scenarios can be examined. Considered the main core of the developed tool, the dispersion module comprises a shallow layer modelling approach capable to account the main influence of obstacles during the hazmat gas dispersion phenomena. Model validation includes qualitative and quantitative analyses of main outputs by the comparison of modelled results against measurements and/or modelled databases. The preliminary analysis of meteorological and source term modules against modelled outputs from extensively validated models shows the consistent description of ambient conditions and the variation of the hazmat gas release. Dispersion is compared against measurements observations in obstructed and unobstructed areas for different release and dispersion scenarios. From the performance validation exercise, acceptable agreement was obtained, showing the reasonable numerical representation of measured features. In general, quality metrics are within or close to the acceptance limits recommended for ‘non-CFD models’, demonstrating its capability to reasonably predict hazmat gases accidental release and atmospheric dispersion in industrial and urban areas. EFRHA model was also applied to a particular case study, the Estarreja Chemical Complex (ECC), for a set of accidental release scenarios within a CA scope. The results show the magnitude of potential effects on the surrounding populated area and influence of the type of accident and the environment on the main outputs. Overall the present thesis shows that EFRHA model can be used as a straightforward tool to support CA studies in the scope of training and planning, but also, to support decision and emergency response in case of hazmat gases accidental release in industrial and built-up areas.
Resumo:
Coronary CT angiography is widely used in clinical practice for the assessment of coronary artery disease. Several studies have shown that the same exam can also be used to assess left ventricle (LV) function. LV function is usually evaluated using just the data from end-systolic and end-diastolic phases even though coronary CT angiography (CTA) provides data concerning multiple cardiac phases, along the cardiac cycle. This unused wealth of data, mostly due to its complexity and the lack of proper tools, has still to be explored in order to assess if further insight is possible regarding regional LV functional analysis. Furthermore, different parameters can be computed to characterize LV function and while some are well known by clinicians others still need to be evaluated concerning their value in clinical scenarios. The work presented in this thesis covers two steps towards extended use of CTA data: LV segmentation and functional analysis. A new semi-automatic segmentation method is presented to obtain LV data for all cardiac phases available in a CTA exam and a 3D editing tool was designed to allow users to fine tune the segmentations. Regarding segmentation evaluation, a methodology is proposed in order to help choose the similarity metrics to be used to compare segmentations. This methodology allows the detection of redundant measures that can be discarded. The evaluation was performed with the help of three experienced radiographers yielding low intraand inter-observer variability. In order to allow exploring the segmented data, several parameters characterizing global and regional LV function are computed for the available cardiac phases. The data thus obtained is shown using a set of visualizations allowing synchronized visual exploration. The main purpose is to provide means for clinicians to explore the data and gather insight over their meaning, as well as their correlation with each other and with diagnosis outcomes. Finally, an interactive method is proposed to help clinicians assess myocardial perfusion by providing automatic assignment of lesions, detected by clinicians, to a myocardial segment. This new approach has obtained positive feedback from clinicians and is not only an improvement over their current assessment method but also an important first step towards systematic validation of automatic myocardial perfusion assessment measures.
Resumo:
Internet Tra c, Internet Applications, Internet Attacks, Tra c Pro ling, Multi-Scale Analysis abstract Nowadays, the Internet can be seen as an ever-changing platform where new and di erent types of services and applications are constantly emerging. In fact, many of the existing dominant applications, such as social networks, have appeared recently, being rapidly adopted by the user community. All these new applications required the implementation of novel communication protocols that present di erent network requirements, according to the service they deploy. All this diversity and novelty has lead to an increasing need of accurately pro ling Internet users, by mapping their tra c to the originating application, in order to improve many network management tasks such as resources optimization, network performance, service personalization and security. However, accurately mapping tra c to its originating application is a di cult task due to the inherent complexity of existing network protocols and to several restrictions that prevent the analysis of the contents of the generated tra c. In fact, many technologies, such as tra c encryption, are widely deployed to assure and protect the con dentiality and integrity of communications over the Internet. On the other hand, many legal constraints also forbid the analysis of the clients' tra c in order to protect their con dentiality and privacy. Consequently, novel tra c discrimination methodologies are necessary for an accurate tra c classi cation and user pro ling. This thesis proposes several identi cation methodologies for an accurate Internet tra c pro ling while coping with the di erent mentioned restrictions and with the existing encryption techniques. By analyzing the several frequency components present in the captured tra c and inferring the presence of the di erent network and user related events, the proposed approaches are able to create a pro le for each one of the analyzed Internet applications. The use of several probabilistic models will allow the accurate association of the analyzed tra c to the corresponding application. Several enhancements will also be proposed in order to allow the identi cation of hidden illicit patterns and the real-time classi cation of captured tra c. In addition, a new network management paradigm for wired and wireless networks will be proposed. The analysis of the layer 2 tra c metrics and the di erent frequency components that are present in the captured tra c allows an e cient user pro ling in terms of the used web-application. Finally, some usage scenarios for these methodologies will be presented and discussed.
Resumo:
Esta tese apresenta um estudo sobre alguns dos protocolos de cooperação MAC para redes sem fios utilizando o sistema IEEE 802.11 multi-débito. É proposto um novo modelo de arquitetura para a categorização e análise da cooperação em redes sem fios, tendo este modelo sido aplicado a protocolos cooperativos existentes para camada MAC. É investigado como as características do meio físico, assim como os requisitos de níveis superiores podem ser aplicados ao processo de cooperação, com vista a melhorar as características de funcionamento da rede de comunicações. Para este propósito são exploradas as métricas mais relevantes para o processo de cooperação. São igualmente estudados os limites impostos pelos protocolos da camada MAC e as limitações práticas impostas por protocolos da família de normas que compõem o IEEE 802.11. Neste trabalho foi criada uma métrica multicamada, que permite considerar os requisitos aplicacionais de performance e o tipo de tráfego, assim como a mobilidade dos dispositivos, no funcionamento dos mecanismos de cooperação. Como forma de validação, e para corretamente avaliar o impacto da métrica, um novo protocolo de cooperação foi desenvolvido e implementado. O seu funcionamento é descrito de forma analítica assim como validado através de a um ambiente de simulação. Os resultados obtidos mostram que a utilização de uma métrica multicamada é uma técnica robusta, fornecendo melhorias consistentes no contexto de redes IEEE 802.11. São igualmente demonstradas várias outras características de funcionamento com impacto para as comunicações. Estes dados fornecem uma visão real e encorajadora para a realização de mais pesquisas para a melhoria da performance dos protocolos cooperativos, assim como a sua utilização num variado número de aplicações futuras. No final do documento são apresentados alguns desafios para a continuação da investigação deste tópico.
Resumo:
The increased capabilities (e.g., processing, storage) of portable devices along with the constant need of users to retrieve and send information have introduced a new form of communication. Users can seamlessly exchange data by means of opportunistic contacts among them and this is what characterizes the opportunistic networks (OppNets). OppNets allow users to communicate even when an end-to-end path may not exist between them. Since 2007, there has been a trend to improve the exchange of data by considering social similarity metrics. Social relationships, shared interests, and popularity are examples of such metrics that have been employed successfully: as users interact based on relationships and interests, this information can be used to decide on the best next forwarders of information. This Thesis work combines the features of today's devices found in the regular urban environment with the current social-awareness trend in the context of opportunistic routing. To achieve this goal, this work was divided into di erent tasks that map to a set of speci c objectives, leading to the following contributions: i) an up-to-date opportunistic routing taxonomy; ii) a universal evaluation framework that aids in devising and testing new routing proposals; iii) three social-aware utility functions that consider the dynamic user behavior and can be easily incorporated to other routing proposals; iv) two opportunistic routing proposals based on the users' daily routines and on the content traversing the network and interest of users in such content; and v) a structure analysis of the social-based network formed based on the approaches devised in this work.
Resumo:
Future emerging market trends head towards positioning based services placing a new perspective on the way we obtain and exploit positioning information. On one hand, innovations in information technology and wireless communication systems enabled the development of numerous location based applications such as vehicle navigation and tracking, sensor networks applications, home automation, asset management, security and context aware location services. On the other hand, wireless networks themselves may bene t from localization information to improve the performances of di erent network layers. Location based routing, synchronization, interference cancellation are prime examples of applications where location information can be useful. Typical positioning solutions rely on measurements and exploitation of distance dependent signal metrics, such as the received signal strength, time of arrival or angle of arrival. They are cheaper and easier to implement than the dedicated positioning systems based on ngerprinting, but at the cost of accuracy. Therefore intelligent localization algorithms and signal processing techniques have to be applied to mitigate the lack of accuracy in distance estimates. Cooperation between nodes is used in cases where conventional positioning techniques do not perform well due to lack of existing infrastructure, or obstructed indoor environment. The objective is to concentrate on hybrid architecture where some nodes have points of attachment to an infrastructure, and simultaneously are interconnected via short-range ad hoc links. The availability of more capable handsets enables more innovative scenarios that take advantage of multiple radio access networks as well as peer-to-peer links for positioning. Link selection is used to optimize the tradeo between the power consumption of participating nodes and the quality of target localization. The Geometric Dilution of Precision and the Cramer-Rao Lower Bound can be used as criteria for choosing the appropriate set of anchor nodes and corresponding measurements before attempting location estimation itself. This work analyzes the existing solutions for node selection in order to improve localization performance, and proposes a novel method based on utility functions. The proposed method is then extended to mobile and heterogeneous environments. Simulations have been carried out, as well as evaluation with real measurement data. In addition, some speci c cases have been considered, such as localization in ill-conditioned scenarios and the use of negative information. The proposed approaches have shown to enhance estimation accuracy, whilst signi cantly reducing complexity, power consumption and signalling overhead.
Resumo:
Compressed sensing is a new paradigm in signal processing which states that for certain matrices sparse representations can be obtained by a simple l1-minimization. In this thesis we explore this paradigm for higher-dimensional signal. In particular three cases are being studied: signals taking values in a bicomplex algebra, quaternionic signals, and complex signals which are representable by a nonlinear Fourier basis, a so-called Takenaka-Malmquist system.