977 resultados para Kahler metrics


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Software-programmable `soft' processors have shown tremendous potential for efficient realisation of high performance signal processing operations on Field Programmable Gate Array (FPGA), whilst lowering the design burden by avoiding the need to design fine-grained custom circuit archi-tectures. However, the complex data access patterns, high memory bandwidth and computational requirements of sliding window applications, such as Motion Estimation (ME) and Matrix Multiplication (MM), lead to low performance, inefficient soft processor realisations. This paper resolves this issue, showing how by adding support for block data addressing and accelerators for high performance loop execution, performance and resource efficiency over four times better than current best-in-class metrics can be achieved. In addition, it demonstrates the first recorded real-time soft ME estimation realisation for H.263 systems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper presents initial results of evaluating suitability of the conventional two-tone CW passive intermodulation (PIM) test for characterization of modulated signal distortion by passive nonlinearities in base station antennas and RF front-end. A comprehensive analysis of analog and digitally modulated waveforms in the transmission lines with weak distributed nonlinearity has been performed using the harmonic balance analysis and X-parameters in Advanced Design System (ADS) simulator. The nonlinear distortion metrics used in the conventional two-tone CW PIM test have been compared with the respective spectral metrics applied to the modulated waveforms, such as adjacent channel power ratio (ACPR) and error vector magnitude (EVM). It is shown that the results of two-tone CW PIM tests are consistent with the metrics used for assessment of signal integrity of both analog and digitally modulated waveforms.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cloud data centres are implemented as large-scale clusters with demanding requirements for service performance, availability and cost of operation. As a result of scale and complexity, data centres typically exhibit large numbers of system anomalies resulting from operator error, resource over/under provisioning, hardware or software failures and security issus anomalies are inherently difficult to identify and resolve promptly via human inspection. Therefore, it is vital in a cloud system to have automatic system monitoring that detects potential anomalies and identifies their source. In this paper we present a lightweight anomaly detection tool for Cloud data centres which combines extended log analysis and rigorous correlation of system metrics, implemented by an efficient correlation algorithm which does not require training or complex infrastructure set up. The LADT algorithm is based on the premise that there is a strong correlation between node level and VM level metrics in a cloud system. This correlation will drop significantly in the event of any performance anomaly at the node-level and a continuous drop in the correlation can indicate the presence of a true anomaly in the node. The log analysis of LADT assists in determining whether the correlation drop could be caused by naturally occurring cloud management activity such as VM migration, creation, suspension, termination or resizing. In this way, any potential anomaly alerts are reasoned about to prevent false positives that could be caused by the cloud operator’s activity. We demonstrate LADT with log analysis in a Cloud environment to show how the log analysis is combined with the correlation of systems metrics to achieve accurate anomaly detection.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper addresses the representation of landscape complexity in stated preferences research. It integrates landscape ecology and landscape economics and conducts the landscape analysis in a three-dimensional space to provide ecologically meaningful quantitative landscape indicators that are used as variables for the monetary valuation of landscape in a stated preferences study. Expected heterogeneity in taste intensity across respondents is addressed with a mixed logit model in Willingness to Pay space. Our methodology is applied to value, in monetary terms, the landscape of the Sorrento Peninsula in Italy, an area that has faced increasing pressure from urbanization affecting its traditional horticultural, herbaceous, and arboreal structure, with loss of biodiversity, and an increasing risk of landslides. We find that residents of the Sorrento Peninsula would prefer landscapes characterized by large open views and natural features. Residents also appear to dislike heterogeneous landscapes and the presence of lemon orchards and farmers' stewardship, which are associated with the current failure of protecting the traditional landscape. The outcomes suggest that the use of landscape ecology metrics in a stated preferences model may be an effective way to move forward integrated methodologies to better understand and represent landscape and its complexity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Key generation from the randomness of wireless channels is a promising alternative to public key cryptography for the establishment of cryptographic keys between any two users. This paper reviews the current techniques for wireless key generation. The principles, performance metrics and key generation procedure are comprehensively surveyed. Methods for optimizing the performance of key generation are also discussed. Key generation applications in various environments are then introduced along with the challenges of applying the approach in each scenario. The paper concludes with some suggestions for future studies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Passive intermodulation (PIM) often limits the performance of communication systems with analog and digitally-modulated signals and especially of systems supporting multiple carriers. Since the origins of the apparently multiple physical sources of nonlinearity causing PIM are not fully understood, the behavioral models are frequently used to describe the process of PIM generation. In this paper a polynomial model of memoryless nonlinearity is deduced from PIM measurements of a microstrip line with distributed nonlinearity with two-tone CW signals. The analytical model of nonlinearity is incorporated in Keysight Technology’s ADS simulator to evaluate the metrics of signal fidelity in the receive band for analog and digitally-modulated signals. PIM-induced distortion and cross-band interference with modulated signals are compared to those with two-tone CW signals. It is shown that conventional metrics can be applied to quantify the effect of distributed nonlinearities on signal fidelity. It is found that the two-tone CW test provides a worst-case estimate of cross-band interference for two-carrier modulated signals whereas with a three-carrier signal PIM interference in the receive band is noticeably overestimated. The simulated constellation diagrams for QPSK signals demonstrate that PIM interference exhibits the distinctive signatures of correlated distortion and this indicates that there are opportunities for mitigating PIM interference and that PIM interference cannot be treated as noise. One of the interesting results is that PIM distortion on a transmission line results in asymmetrical regrowth of output PIM interference for modulated signals.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Digital image analysis is at a crossroads. While the technology has made great strides over the past few decades, there is an urgent need for image analysis to inform the next wave of large scale tissue biomarker discovery studies in cancer. Drawing parallels from the growth of next generation sequencing, this presentation will consider the case for a common language or standard format for storing and communicating digital image analysis data. In this context, image analysis data comprises more than simply an image with markups and attached key-value pair metrics. The desire to objectively benchmark competing platforms or a push for data to be deposited to public repositories much like genomics data may drive the need for a standard that also encompasses granular, cell-by-cell data.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na última década tem-se assistido a um crescimento exponencial das redes de comunicações sem fios, nomeadamente no que se refere a taxa de penetração do serviço prestado e na implementação de novas infra-estruturas em todo o globo. É ponto assente neste momento que esta tendência irá não só continuar como se fortalecer devido à convergência que é esperada entre as redes móveis sem fio e a disponibilização de serviços de banda larga para a rede Internet fixa, numa evolução para um paradigma de uma arquitectura integrada e baseada em serviços e aplicações IP. Por este motivo, as comunicações móveis sem fios irão ter um papel fundamental no desenvolvimento da sociedade de informação a médio e longo prazos. A estratégia seguida no projecto e implementação das redes móveis celulares da actual geração (2G e 3G) foi a da estratificação da sua arquitectura protocolar numa estrutura modular em camadas estanques, onde cada camada do modelo é responsável pela implementação de um conjunto de funcionalidades. Neste modelo a comunicação dá-se apenas entre camadas adjacentes através de primitivas de comunicação pré-estabelecidas. Este modelo de arquitectura resulta numa mais fácil implementação e introdução de novas funcionalidades na rede. Entretanto, o facto das camadas inferiores do modelo protocolar não utilizarem informação disponibilizada pelas camadas superiores, e vice-versa acarreta uma degradação no desempenho do sistema. Este paradigma é particularmente importante quando sistemas de antenas múltiplas são implementados (sistemas MIMO). Sistemas de antenas múltiplas introduzem um grau adicional de liberdade no que respeita a atribuição de recursos rádio: o domínio espacial. Contrariamente a atribuição de recursos no domínio do tempo e da frequência, no domínio espacial os recursos rádio mapeados no domínio espacial não podem ser assumidos como sendo completamente ortogonais, devido a interferência resultante do facto de vários terminais transmitirem no mesmo canal e/ou slots temporais mas em feixes espaciais diferentes. Sendo assim, a disponibilidade de informação relativa ao estado dos recursos rádio às camadas superiores do modelo protocolar é de fundamental importância na satisfação dos critérios de qualidade de serviço exigidos. Uma forma eficiente de gestão dos recursos rádio exige a implementação de algoritmos de agendamento de pacotes de baixo grau de complexidade, que definem os níveis de prioridade no acesso a esses recursos por base dos utilizadores com base na informação disponibilizada quer pelas camadas inferiores quer pelas camadas superiores do modelo. Este novo paradigma de comunicação, designado por cross-layer resulta na maximização da capacidade de transporte de dados por parte do canal rádio móvel, bem como a satisfação dos requisitos de qualidade de serviço derivados a partir da camada de aplicação do modelo. Na sua elaboração, procurou-se que o standard IEEE 802.16e, conhecido por Mobile WiMAX respeitasse as especificações associadas aos sistemas móveis celulares de quarta geração. A arquitectura escalonável, o baixo custo de implementação e as elevadas taxas de transmissão de dados resultam num processo de multiplexagem de dados e valores baixos no atraso decorrente da transmissão de pacotes, os quais são atributos fundamentais para a disponibilização de serviços de banda larga. Da mesma forma a comunicação orientada à comutação de pacotes, inenente na camada de acesso ao meio, é totalmente compatível com as exigências em termos da qualidade de serviço dessas aplicações. Sendo assim, o Mobile WiMAX parece satisfazer os requisitos exigentes das redes móveis de quarta geração. Nesta tese procede-se à investigação, projecto e implementação de algoritmos de encaminhamento de pacotes tendo em vista a eficiente gestão do conjunto de recursos rádio nos domínios do tempo, frequência e espacial das redes móveis celulares, tendo como caso prático as redes móveis celulares suportadas no standard IEEE802.16e. Os algoritmos propostos combinam métricas provenientes da camada física bem como os requisitos de qualidade de serviço das camadas superiores, de acordo com a arquitectura de redes baseadas no paradigma do cross-layer. O desempenho desses algoritmos é analisado a partir de simulações efectuadas por um simulador de sistema, numa plataforma que implementa as camadas física e de acesso ao meio do standard IEEE802.16e.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os ecossistemas de água doce – responsáveis por funções ambientais importantes e pelo fornecimento de bens e serviços insubstituíveis – têm vindo a ser severamente afectados por perturbações antropogénicas. A conversão de floresta em terreno agrícola afecta os sistemas aquáticos através de uma série de mecanismos: sedimentação; excesso de nutrientes; contaminação; alterações hidrológicas; e remoção de vegetação ripícola. As comunidades de macroinvertebrados de água doce – devido à sua diversidade, ubiquidade e sensibilidade às perturbações ambientais – revelam-se como particularmente adequadas para estudos de avaliação da integridade ecológica destes sistemas expostos simultaneamente a múltiplos factores de impacto. O uso sistemático de respostas biológicas para avaliação de mudanças ambientais – ou biomonitorização – pode ser levado a cabo através de diversas metodologias, que, de uma forma geral, não consideram aspectos funcionais das comunidades biológicas e têm aplicabilidade geograficamente restrita. A biomonitorização através de atributos biológicos (características que reflectem a adaptação das espécies ao seu meio ambiente) revela-se como uma ferramenta promissora na resolução dos problemas referidos, apresentando vantagens adicionais: relações causa-efeito directas; melhoria na diferenciação de impactos; e integração da variabilidade natural. O presente estudo apresenta uma revisão critica do estado-da-arte actual na área do uso de atributos biológicos em biomonitorização. Até à data de publicação, não estava disponível nenhum outro trabalho com a base conceptual do uso de atributos de macroinvertebrados enquanto descritores de comunidades e para efeitos de biomonitorização e gestão de sistemas de água doce. Descrevem-se as teorias ecológicas de suporte destas metodologias (conceitos de habitat-molde e de filtros paisagísticos) e os estudos que aplicaram estas teorias em cenários reais, tendo-se chamado a atenção para questões técnicas e possíveis soluções. As necessidades futuras nesta área englobam: o desenvolvimento de uma só ferramenta de biomonitorização de aplicação alargada; uma maior compreensão da variabilidade natural nas comunidades biológicas; diminuição dos efeitos de soluções de compromisso biológico e sindromas; realização de estudos autoecológicos adicionais; e detecção de impactos específicos em cenários de impacto complexos. Um dos objectivos deste estudo foi contribuir para a melhoria das técnicas de biomonitorização através de atributos, focalizando em comunidades de macroinvertebrados ribeirinhas em diferentes regiões biogeográficas (as bacias hidrográficas dos rios: Little e Salmon em New Brunswick, Canadá; Anllóns na Galiza, Espanha; Reventazón em Cartago, Costa Rica). Em cada região, foram estudados gradientes de uso agrícola de solo, incluindo desde bacias hidrográficas quase exclusivamente cobertas por floresta até bacias sob a influência maioritária de actividades agrícolas intensivas. Em cada gradiente de uso de solo, a caracterização da comunidade biológica (por amostragem de macroinvertebrados em troços de rápidos) foi acompanhada pela caracterização do habitat circundante (incluindo propriedades da bacia hidrográfica, análise química das águas e outras propriedades à escala local). A comunidade de macroinvertebrados foi caracterizada através de informação taxonómica, métricas estruturais, índices de diversidade, métricas de tolerância, índices bióticos e através da compilação de atributos biológicos e fisiológicos gerais, de história de vida e de resistência a perturbações. Análises estatísticas univariadas e multivariadas foram usadas para evidenciar os gradientes biológicos e físico-químicos, confirmar a sua co-variação, testar a significância da discriminação de níveis de impacto e estabelecer comparações inter-regionais. A estrutura de comunidades revelou os complexos gradientes de impacto, que por sua vez co-variaram significativamente com os gradientes de uso de solo. Os gradientes de impacto relacionaram-se sobretudo com entrada de nutrientes e sedimentação. Os gradientes biológicos definidos pelas medidas estruturais seleccionadas co-variaram com os gradientes de impacto estudados, muito embora apenas algumas variáveis estruturais tenham individualmente discriminado as categorias de uso de solo definidas a priori. Não foi detectada consistência nas respostas das medidas estruturais entre regiões biogeográficas, tendo-se confirmadado que as interpretações puramente taxonómicas de impactos são difíceis de extrapolar entre regiões. Os gradientes biológicos definidos através dos atributos seleccionados também co-variaram com os gradientes de perturbação, tendo sido possível obter uma melhor discriminação de categorias de uso de solo. Nas diferentes regiões, a discriminação de locais mais impactados foi feita com base num conjunto similar de atributos, que inclui tamanho, voltinismo, técnicas reproductivas, microhabitat, preferências de corrente e substrato, hábitos alimentares e formas de resistência. Este conjunto poderá vir a ser usado para avaliar de forma predictiva os efeitos das modificações severas de uso de solo impostas pela actividade agrícola. Quando analisadas simultaneamente através dos atributos, as comunidades das três regiões permitiram uma moderada mas significativa discriminação de níveis de impacto. Estas análises corroboram as evidências de que as mudanças nas comunidades de macroinvertebrados aquáticos em locais sob a influência de agricultura intensiva podem seguir uma trajectória convergente no espaço multidimensional, independentemente de factores geográficos. Foram fornecidas pistas para a identificação de parâmetros específicos que deverão ser tidos em conta no planeamento de novos programas de biomonitorização com comunidades de macroinvertebrados bentónicos, para aplicação numa gestão fluvial verdadeiramente ecológica, nestas e noutras regiões. Foram ainda sugeridas possíveis linhas futuras de investigação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um assunto que requer atenção é a avaliação ecológica da qualidade da água de ecossistemas de água doce. Uma abordagem que surge como promissora é a biomonitorização baseada em biomarcadores, porque pode avaliar a saúde dos organismos e obter sinais de alerta precoce acerca dos riscos ambientais. Até agora, porém, o uso de biomarcadores em espécies de invertebrados, para diagnosticar danos ecológicos nos rios, é escasso. Por essa razão, existe uma necessidade urgente de desenvolver biomarcadores nas principais espécies de macroinvertebrados dos ecossistemas fluviais que são alvo de estudo. Esta tese tem como objectivo averiguar se as respostas in situ, aliadas aos biomarcadores, podem ser um método viável para avaliar os danos ecológicos de contaminantes em ecossistemas de água doce. Numa primeira fase, os biomarcadores foram usados para averiguar os mecanismos fisiológicos de adaptação genética de clones de Daphnia magna ao pesticida organofosforado fenitrothion. Numa segunda fase, os biomarcadores foram usados como ferramentas de diagnóstico de poluição em zonas ribeirinhas. Estes estudos foram realizados com três espécies-chave de macroinvertebrados: Daphnia magna, Corbicula fluminea e Hydropsyche exocellata, nos rios Besós e Llobregat e no Delta do rio Ebro (NE Espanha). Além disso, foram realizados com animais capturados nos rios, ou com ensaios de transplantes, e foram complementados com índices biológicos de macroinvertebrados e análises químicas da água e dos animais. Como os contaminantes químicos têm vários modos toxicológicos de acção e, portanto, afectam várias respostas bioquímicas dos organismos, foram analisados nas três espécies um conjunto de biomarcadores pertencentes a diferentes vias metabólicas. A abordagem experimental indica que o uso combinado de biomarcadores e outras medidas, tais como índices biológicos e testes in situ, contribui para diagnosticar os efeitos prejudiciais de contaminantes nas comunidades ribeirinhas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the last decade, mobile wireless communications have witnessed an explosive growth in the user’s penetration rate and their widespread deployment around the globe. In particular, a research topic of particular relevance in telecommunications nowadays is related to the design and implementation of mobile communication systems of 4th generation (4G). 4G networks will be characterized by the support of multiple radio access technologies in a core network fully compliant with the Internet Protocol (all IP paradigms). Such networks will sustain the stringent quality of service (QoS) requirements and the expected high data rates from the type of multimedia applications (i.e. YouTube and Skype) to be available in the near future. Therefore, 4G wireless communications system will be of paramount importance on the development of the information society in the near future. As 4G wireless services will continue to increase, this will put more and more pressure on the spectrum availability. There is a worldwide recognition that methods of spectrum managements have reached their limit and are no longer optimal, therefore new paradigms must be sought. Studies show that most of the assigned spectrum is under-utilized, thus the problem in most cases is inefficient spectrum management rather spectrum shortage. There are currently trends towards a more liberalized approach of spectrum management, which are tightly linked to what is commonly termed as Cognitive Radio (CR). Furthermore, conventional deployment of 4G wireless systems (one BS in cell and mobile deploy around it) are known to have problems in providing fairness (users closer to the BS are more benefited relatively to the cell edge users) and in covering some zones affected by shadowing, therefore the use of relays has been proposed as a solution. To evaluate and analyse the performances of 4G wireless systems software tools are normally used. Software tools have become more and more mature in recent years and their need to provide a high level evaluation of proposed algorithms and protocols is now more important. The system level simulation (SLS) tools provide a fundamental and flexible way to test all the envisioned algorithms and protocols under realistic conditions, without the need to deal with the problems of live networks or reduced scope prototypes. Furthermore, the tools allow network designers a rapid collection of a wide range of performance metrics that are useful for the analysis and optimization of different algorithms. This dissertation proposes the design and implementation of conventional system level simulator (SLS), which afterwards enhances for the 4G wireless technologies namely cognitive Radios (IEEE802.22) and Relays (IEEE802.16j). SLS is then used for the analysis of proposed algorithms and protocols.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The renewed concern in assessing risks and consequences from technological hazards in industrial and urban areas continues emphasizing the development of local-scale consequence analysis (CA) modelling tools able to predict shortterm pollution episodes and exposure effects on humans and the environment in case of accident with hazardous gases (hazmat). In this context, the main objective of this thesis is the development and validation of the EFfects of Released Hazardous gAses (EFRHA) model. This modelling tool is designed to simulate the outflow and atmospheric dispersion of heavy and passive hazmat gases in complex and build-up areas, and to estimate the exposure consequences of short-term pollution episodes in accordance to regulatory/safety threshold limits. Five main modules comprising up-to-date methods constitute the model: meteorological, terrain, source term, dispersion, and effects modules. Different initial physical states accident scenarios can be examined. Considered the main core of the developed tool, the dispersion module comprises a shallow layer modelling approach capable to account the main influence of obstacles during the hazmat gas dispersion phenomena. Model validation includes qualitative and quantitative analyses of main outputs by the comparison of modelled results against measurements and/or modelled databases. The preliminary analysis of meteorological and source term modules against modelled outputs from extensively validated models shows the consistent description of ambient conditions and the variation of the hazmat gas release. Dispersion is compared against measurements observations in obstructed and unobstructed areas for different release and dispersion scenarios. From the performance validation exercise, acceptable agreement was obtained, showing the reasonable numerical representation of measured features. In general, quality metrics are within or close to the acceptance limits recommended for ‘non-CFD models’, demonstrating its capability to reasonably predict hazmat gases accidental release and atmospheric dispersion in industrial and urban areas. EFRHA model was also applied to a particular case study, the Estarreja Chemical Complex (ECC), for a set of accidental release scenarios within a CA scope. The results show the magnitude of potential effects on the surrounding populated area and influence of the type of accident and the environment on the main outputs. Overall the present thesis shows that EFRHA model can be used as a straightforward tool to support CA studies in the scope of training and planning, but also, to support decision and emergency response in case of hazmat gases accidental release in industrial and built-up areas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Coronary CT angiography is widely used in clinical practice for the assessment of coronary artery disease. Several studies have shown that the same exam can also be used to assess left ventricle (LV) function. LV function is usually evaluated using just the data from end-systolic and end-diastolic phases even though coronary CT angiography (CTA) provides data concerning multiple cardiac phases, along the cardiac cycle. This unused wealth of data, mostly due to its complexity and the lack of proper tools, has still to be explored in order to assess if further insight is possible regarding regional LV functional analysis. Furthermore, different parameters can be computed to characterize LV function and while some are well known by clinicians others still need to be evaluated concerning their value in clinical scenarios. The work presented in this thesis covers two steps towards extended use of CTA data: LV segmentation and functional analysis. A new semi-automatic segmentation method is presented to obtain LV data for all cardiac phases available in a CTA exam and a 3D editing tool was designed to allow users to fine tune the segmentations. Regarding segmentation evaluation, a methodology is proposed in order to help choose the similarity metrics to be used to compare segmentations. This methodology allows the detection of redundant measures that can be discarded. The evaluation was performed with the help of three experienced radiographers yielding low intraand inter-observer variability. In order to allow exploring the segmented data, several parameters characterizing global and regional LV function are computed for the available cardiac phases. The data thus obtained is shown using a set of visualizations allowing synchronized visual exploration. The main purpose is to provide means for clinicians to explore the data and gather insight over their meaning, as well as their correlation with each other and with diagnosis outcomes. Finally, an interactive method is proposed to help clinicians assess myocardial perfusion by providing automatic assignment of lesions, detected by clinicians, to a myocardial segment. This new approach has obtained positive feedback from clinicians and is not only an improvement over their current assessment method but also an important first step towards systematic validation of automatic myocardial perfusion assessment measures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Internet Tra c, Internet Applications, Internet Attacks, Tra c Pro ling, Multi-Scale Analysis abstract Nowadays, the Internet can be seen as an ever-changing platform where new and di erent types of services and applications are constantly emerging. In fact, many of the existing dominant applications, such as social networks, have appeared recently, being rapidly adopted by the user community. All these new applications required the implementation of novel communication protocols that present di erent network requirements, according to the service they deploy. All this diversity and novelty has lead to an increasing need of accurately pro ling Internet users, by mapping their tra c to the originating application, in order to improve many network management tasks such as resources optimization, network performance, service personalization and security. However, accurately mapping tra c to its originating application is a di cult task due to the inherent complexity of existing network protocols and to several restrictions that prevent the analysis of the contents of the generated tra c. In fact, many technologies, such as tra c encryption, are widely deployed to assure and protect the con dentiality and integrity of communications over the Internet. On the other hand, many legal constraints also forbid the analysis of the clients' tra c in order to protect their con dentiality and privacy. Consequently, novel tra c discrimination methodologies are necessary for an accurate tra c classi cation and user pro ling. This thesis proposes several identi cation methodologies for an accurate Internet tra c pro ling while coping with the di erent mentioned restrictions and with the existing encryption techniques. By analyzing the several frequency components present in the captured tra c and inferring the presence of the di erent network and user related events, the proposed approaches are able to create a pro le for each one of the analyzed Internet applications. The use of several probabilistic models will allow the accurate association of the analyzed tra c to the corresponding application. Several enhancements will also be proposed in order to allow the identi cation of hidden illicit patterns and the real-time classi cation of captured tra c. In addition, a new network management paradigm for wired and wireless networks will be proposed. The analysis of the layer 2 tra c metrics and the di erent frequency components that are present in the captured tra c allows an e cient user pro ling in terms of the used web-application. Finally, some usage scenarios for these methodologies will be presented and discussed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese apresenta um estudo sobre alguns dos protocolos de cooperação MAC para redes sem fios utilizando o sistema IEEE 802.11 multi-débito. É proposto um novo modelo de arquitetura para a categorização e análise da cooperação em redes sem fios, tendo este modelo sido aplicado a protocolos cooperativos existentes para camada MAC. É investigado como as características do meio físico, assim como os requisitos de níveis superiores podem ser aplicados ao processo de cooperação, com vista a melhorar as características de funcionamento da rede de comunicações. Para este propósito são exploradas as métricas mais relevantes para o processo de cooperação. São igualmente estudados os limites impostos pelos protocolos da camada MAC e as limitações práticas impostas por protocolos da família de normas que compõem o IEEE 802.11. Neste trabalho foi criada uma métrica multicamada, que permite considerar os requisitos aplicacionais de performance e o tipo de tráfego, assim como a mobilidade dos dispositivos, no funcionamento dos mecanismos de cooperação. Como forma de validação, e para corretamente avaliar o impacto da métrica, um novo protocolo de cooperação foi desenvolvido e implementado. O seu funcionamento é descrito de forma analítica assim como validado através de a um ambiente de simulação. Os resultados obtidos mostram que a utilização de uma métrica multicamada é uma técnica robusta, fornecendo melhorias consistentes no contexto de redes IEEE 802.11. São igualmente demonstradas várias outras características de funcionamento com impacto para as comunicações. Estes dados fornecem uma visão real e encorajadora para a realização de mais pesquisas para a melhoria da performance dos protocolos cooperativos, assim como a sua utilização num variado número de aplicações futuras. No final do documento são apresentados alguns desafios para a continuação da investigação deste tópico.