954 resultados para Arquitetura de redes de computador
Resumo:
Durante as ultimas décadas, os registos de saúde eletrónicos (EHR) têm evoluído para se adaptar a novos requisitos. O cidadão tem-se envolvido cada vez mais na prestação dos cuidados médicos, sendo mais pró ativo e desejando potenciar a utilização do seu registo. A mobilidade do cidadão trouxe mais desafios, a existência de dados dispersos, heterogeneidade de sistemas e formatos e grande dificuldade de partilha e comunicação entre os prestadores de serviços. Para responder a estes requisitos, diversas soluções apareceram, maioritariamente baseadas em acordos entre instituições, regiões e países. Estas abordagens são usualmente assentes em cenários federativos muito complexos e fora do controlo do paciente. Abordagens mais recentes, como os registos pessoais de saúde (PHR), permitem o controlo do paciente, mas levantam duvidas da integridade clinica da informação aos profissionais clínicos. Neste cenário os dados saem de redes e sistemas controlados, aumentando o risco de segurança da informação. Assim sendo, são necessárias novas soluções que permitam uma colaboração confiável entre os diversos atores e sistemas. Esta tese apresenta uma solução que permite a colaboração aberta e segura entre todos os atores envolvidos nos cuidados de saúde. Baseia-se numa arquitetura orientada ao serviço, que lida com a informação clínica usando o conceito de envelope fechado. Foi modelada recorrendo aos princípios de funcionalidade e privilégios mínimos, com o propósito de fornecer proteção dos dados durante a transmissão, processamento e armazenamento. O controlo de acesso _e estabelecido por políticas definidas pelo paciente. Cartões de identificação eletrónicos, ou certificados similares são utilizados para a autenticação, permitindo uma inscrição automática. Todos os componentes requerem autenticação mútua e fazem uso de algoritmos de cifragem para garantir a privacidade dos dados. Apresenta-se também um modelo de ameaça para a arquitetura, por forma a analisar se as ameaças possíveis foram mitigadas ou se são necessários mais refinamentos. A solução proposta resolve o problema da mobilidade do paciente e a dispersão de dados, capacitando o cidadão a gerir e a colaborar na criação e manutenção da sua informação de saúde. A arquitetura permite uma colaboração aberta e segura, possibilitando que o paciente tenha registos mais ricos, atualizados e permitindo o surgimento de novas formas de criar e usar informação clínica ou complementar.
Resumo:
In recent years, a new paradigm for communication called cooperative communications has been proposed for which initial information theoretic studies have shown the potential for improvements in capacity over traditional multi-hop wireless networks. Extensive research has been done to mitigate the impact of fading in wireless networks, being mostly focused on Multiple-Input Multiple-Output (MIMO) systems. Recently, cooperative relaying techniques have been investigated to increase the performance of wireless systems by using diversity created by different single antenna devices, aiming to reach the same level of performance of MIMO systems with low cost devices. Cooperative communication is a promising method to achieve high spectrum efficiency and improve transmission capacity for wireless networks. Cooperative communications is the general idea of pooling the resources of distributed nodes to improve the overall performance of a wireless network. In cooperative networks the nodes cooperate to help each other. A cooperative node offering help is acting like a middle man or proxy and can convey messages from source to destination. Cooperative communication involves exploiting the broadcast nature of the wireless medium to form virtual antenna arrays out of independent singleantenna network nodes for transmission. This research aims at contributing to the field of cooperative wireless networks. The focus of this research is on the relay-based Medium Access Control (MAC) protocol. Specifically, I provide a framework for cooperative relaying called RelaySpot which comprises on opportunistic relay selection, cooperative relay scheduling and relay switching. RelaySpot-based solutions are expected to minimize signaling exchange, remove estimation of channel conditions, and improve the utilization of spatial diversity, minimizing outage and increasing reliability.
Resumo:
A evolução constante em novas tecnologias que providenciam suporte à forma como os nossos dispositivos se ligam, bem como a forma como utilizamos diferentes capacidades e serviços on-line, criou um conjunto sem precedentes de novos desafios que motivam o desenvolvimento de uma recente área de investigação, denominada de Internet Futura. Nesta nova área de investigação, novos aspectos arquiteturais estão ser desenvolvidos, os quais, através da re-estruturação de componentes nucleares subjacentesa que compõem a Internet, progride-a de uma forma capaz de não são fazer face a estes novos desafios, mas também de a preparar para os desafios de amanhã. Aspectos chave pertencendo a este conjunto de desafios são os ambientes de rede heterogéneos compostos por diferentes tipos de redes de acesso, a cada vez maior mudança do tráfego peer-to-peer (P2P) como o tipo de tráfego mais utilizado na Internet, a orquestração de cenários da Internet das Coisas (IoT) que exploram mecanismos de interação Maquinaa-Maquina (M2M), e a utilização de mechanismos centrados na informação (ICN). Esta tese apresenta uma nova arquitetura capaz de simultaneamente fazer face a estes desafios, evoluindo os procedimentos de conectividade e entidades envolvidas, através da adição de uma camada de middleware, que age como um mecanismo de gestão de controlo avançado. Este mecanismo de gestão de controlo aproxima as entidades de alto nível (tais como serviços, aplicações, entidades de gestão de mobilidade, operações de encaminhamento, etc.) com as componentes das camadas de baixo nível (por exemplo, camadas de ligação, sensores e atuadores), permitindo uma otimização conjunta dos procedimentos de ligação subjacentes. Os resultados obtidos não só sublinham a flexibilidade dos mecanismos que compoem a arquitetura, mas também a sua capacidade de providenciar aumentos de performance quando comparados com outras soluÇÕes de funcionamento especÍfico, enquanto permite um maior leque de cenáios e aplicações.
Resumo:
In the modern society, new devices, applications and technologies, with sophisticated capabilities, are converging in the same network infrastructure. Users are also increasingly demanding in personal preferences and expectations, desiring Internet connectivity anytime and everywhere. These aspects have triggered many research efforts, since the current Internet is reaching a breaking point trying to provide enough flexibility for users and profits for operators, while dealing with the complex requirements raised by the recent evolution. Fully aligned with the future Internet research, many solutions have been proposed to enhance the current Internet-based architectures and protocols, in order to become context-aware, that is, to be dynamically adapted to the change of the information characterizing any network entity. In this sense, the presented Thesis proposes a new architecture that allows to create several networks with different characteristics according to their context, on the top of a single Wireless Mesh Network (WMN), which infrastructure and protocols are very flexible and self-adaptable. More specifically, this Thesis models the context of users, which can span from their security, cost and mobility preferences, devices’ capabilities or services’ quality requirements, in order to turn a WMN into a set of logical networks. Each logical network is configured to meet a set of user context needs (for instance, support of high mobility and low security). To implement this user-centric architecture, this Thesis uses the network virtualization, which has often been advocated as a mean to deploy independent network architectures and services towards the future Internet, while allowing a dynamic resource management. This way, network virtualization can allow a flexible and programmable configuration of a WMN, in order to be shared by multiple logical networks (or virtual networks - VNs). Moreover, the high level of isolation introduced by network virtualization can be used to differentiate the protocols and mechanisms of each context-aware VN. This architecture raises several challenges to control and manage the VNs on-demand, in response to user and WMN dynamics. In this context, we target the mechanisms to: (i) discover and select the VN to assign to an user; (ii) create, adapt and remove the VN topologies and routes. We also explore how the rate of variation of the user context requirements can be considered to improve the performance and reduce the complexity of the VN control and management. Finally, due to the scalability limitations of centralized control solutions, we propose a mechanism to distribute the control functionalities along the architectural entities, which can cooperate to control and manage the VNs in a distributed way.
Resumo:
In this work several techniques to monitor the performance of optical networks were developed. These techniques are dedicated either to the measurement of the data signal parameters (optical signal to noise ratio and dispersion) or to the detection of physical failures on the network infrastructure. The optical signal to noise ratio of the transmitted signal was successfully monitored using methods based on the presence of Bragg gratings imprinted on high birefringent fibres that allowed the distinction of the signal from the noise due to its polarization properties. The monitoring of the signal group-velocity dispersion was also possible. In this case, a method based on the analysis of the electric spectrum of the signal was applied. It was experimentally demonstrated that this technique is applicable on both amplitude and phase modulated signals. It was also developed a technique to monitor the physical infrastructure of an optical access network. Once again, the application of Bragg gratings (this time imprinted on standard single mode fibres) was the basis of the developed method.
Resumo:
Future emerging market trends head towards positioning based services placing a new perspective on the way we obtain and exploit positioning information. On one hand, innovations in information technology and wireless communication systems enabled the development of numerous location based applications such as vehicle navigation and tracking, sensor networks applications, home automation, asset management, security and context aware location services. On the other hand, wireless networks themselves may bene t from localization information to improve the performances of di erent network layers. Location based routing, synchronization, interference cancellation are prime examples of applications where location information can be useful. Typical positioning solutions rely on measurements and exploitation of distance dependent signal metrics, such as the received signal strength, time of arrival or angle of arrival. They are cheaper and easier to implement than the dedicated positioning systems based on ngerprinting, but at the cost of accuracy. Therefore intelligent localization algorithms and signal processing techniques have to be applied to mitigate the lack of accuracy in distance estimates. Cooperation between nodes is used in cases where conventional positioning techniques do not perform well due to lack of existing infrastructure, or obstructed indoor environment. The objective is to concentrate on hybrid architecture where some nodes have points of attachment to an infrastructure, and simultaneously are interconnected via short-range ad hoc links. The availability of more capable handsets enables more innovative scenarios that take advantage of multiple radio access networks as well as peer-to-peer links for positioning. Link selection is used to optimize the tradeo between the power consumption of participating nodes and the quality of target localization. The Geometric Dilution of Precision and the Cramer-Rao Lower Bound can be used as criteria for choosing the appropriate set of anchor nodes and corresponding measurements before attempting location estimation itself. This work analyzes the existing solutions for node selection in order to improve localization performance, and proposes a novel method based on utility functions. The proposed method is then extended to mobile and heterogeneous environments. Simulations have been carried out, as well as evaluation with real measurement data. In addition, some speci c cases have been considered, such as localization in ill-conditioned scenarios and the use of negative information. The proposed approaches have shown to enhance estimation accuracy, whilst signi cantly reducing complexity, power consumption and signalling overhead.
Resumo:
No atual contexto de disseminação e uso das tecnologias da comunicação para a geração de conteúdo não especializado, igualmente partilhado e utilizado, torna-se pertinente sublinhar a participação dos recursos humanos na cocriação da marca organizacional. Esta participação, todavia, encontra alguns constrangimentos e necessidades, tais como a falta de orientação no uso devido da marca gráfica, e a adequação das ferramentas comunicacionais e de gestão do conhecimento de que estes indivíduos são portadores. Neste enquadramento, pretende-se validar um modelo heurístico que explique, satisfatoriamente, de que forma as organizações podem envolver os seus recursos humanos em atividades de valorização da marca, em contextos de informação e comunicação tecnologicamente mediados, e que possa assumirse como um impulsionador da adoção destas práticas. A abordagem metodológica é de natureza exploratória, iterativa e qualitativa, assentando na Grounded Theory e, portanto, num processo indutivo de produção de conhecimento, reconhecendo a existência de momentos de descoberta e, aproximando-se do paradigma construtivista. O estudo que conduz à proposta final de um modelo de comunicação mediada por computador para a valorização da marca assenta, essencialmente, na revisão da literatura através da pesquisa bibliográfica, e num estudo de caso, que assume como procedimentos técnicos os inquéritos por entrevista, para uma primeira verificação dos pressupostos do modelo, a construção de um protótipo não-funcional de uma Central Participativa de Marca (CPM), capaz de expressar a componente tecnológica presente no modelo, e a realização de grupos focais, com o intuito de alcançar a sua validação não-experimental. O estudo de caso realizado debruça-se sobre a Universidade de Aveiro (UA) e sobre o uso e apropriação da sua marca, por parte dos membros da sua comunidade docente e não-docente. Os resultados das entrevistas exploratórias, para as quais se recorre a uma amostra por conveniência composta por entidades relevantes no que à promoção da marca da UA concerne, são combinados com os conteúdos extraídos do levantamento bibliográfico, de modo a serem contemplados tanto na aferição dos domínios de interação que informam o modelo, como na conceção do protótipo de uma plataforma de colaboração online, especificamente orientada à marca, apresentado a cinco grupos focais que neles integram a população-alvo estudada. Este estudo empírico permite uma primeira validação do modelo heurístico proposto, confirmando que a participação na cocriação de artefactos de marca tende a acontecer de forma não oficial, por falta de iniciativas organizacionais que valorizem o capital humano, e que a orientação para o uso e apropriação da marca é fundamental na concretização deste tipo de contributos, dados por indivíduos não especializados em branding, design, comunicação ou estratégia de marketing. Os resultados permitem validar ainda a configuração e a estrutura de interação propostas para o sistema subjacente ao protótipo da CPM, assim como a generalidade das suas funcionalidades, permitindo a proposta de uma heurística focada na experimentação da marca no seio organizacional. Finalmente, são identificadas linhas de investigação futura nesta área, decorrentes dos resultados alcançados e das limitações do estudo realizado.
Resumo:
A investigação tem por objetivo a elaboração de um modelo de análise da convergência dos vídeos musicais na Web Social que pressupõe a proposta prévia de uma abordagem epistemológica que promova os vídeos musicais a objeto de estudo nos novos paradigmas de informação e comunicação em plataformas digitais, através de uma abordagem transdisciplinar entre os Web Studies e os Estudos Literários. O corolário da investigação consistirá na elaboração de um modelo conceptual da difusão dos vídeos musicais na Web Social, que será entendida como um processo dinâmico enquadrado no paradigma da convergência digital que envolve o potencial de difusão da Web Social enquanto nuvem rizomática, a fruição participativa dos utilizadores enquanto agentes de difusão, a sistematização dos conteúdos difundidos através da transtextualidade videomusical. O trabalho de investigação foi operacionalizado através de uma triangulação de métodos que se enquadram num desenho qualitativo de investigação. O objetivo dos dois primeiros métodos (aplicação da teoria fundamentada em dados ao método etnográfico) consiste na elaboração de um modelo de análise da convergência e de um modelo conceptual da difusão dos vídeos musicais na Web Social; o do terceiro (casos de estudo) a afinação e demonstração da aplicabilidade dos referidos modelos. O corpus epistémico da investigação consiste na fruição participativa da comunidade de fãs Antville de junho de 2006 a junho de 2011.
Resumo:
When developing software for autonomous mobile robots, one has to inevitably tackle some kind of perception. Moreover, when dealing with agents that possess some level of reasoning for executing their actions, there is the need to model the environment and the robot internal state in a way that it represents the scenario in which the robot operates. Inserted in the ATRI group, part of the IEETA research unit at Aveiro University, this work uses two of the projects of the group as test bed, particularly in the scenario of robotic soccer with real robots. With the main objective of developing algorithms for sensor and information fusion that could be used e ectively on these teams, several state of the art approaches were studied, implemented and adapted to each of the robot types. Within the MSL RoboCup team CAMBADA, the main focus was the perception of ball and obstacles, with the creation of models capable of providing extended information so that the reasoning of the robot can be ever more e ective. To achieve it, several methodologies were analyzed, implemented, compared and improved. Concerning the ball, an analysis of ltering methodologies for stabilization of its position and estimation of its velocity was performed. Also, with the goal keeper in mind, work has been done to provide it with information of aerial balls. As for obstacles, a new de nition of the way they are perceived by the vision and the type of information provided was created, as well as a methodology for identifying which of the obstacles are team mates. Also, a tracking algorithm was developed, which ultimately assigned each of the obstacles a unique identi er. Associated with the improvement of the obstacles perception, a new algorithm of estimating reactive obstacle avoidance was created. In the context of the SPL RoboCup team Portuguese Team, besides the inevitable adaptation of many of the algorithms already developed for sensor and information fusion and considering that it was recently created, the objective was to create a sustainable software architecture that could be the base for future modular development. The software architecture created is based on a series of di erent processes and the means of communication among them. All processes were created or adapted for the new architecture and a base set of roles and behaviors was de ned during this work to achieve a base functional framework. In terms of perception, the main focus was to de ne a projection model and camera pose extraction that could provide information in metric coordinates. The second main objective was to adapt the CAMBADA localization algorithm to work on the NAO robots, considering all the limitations it presents when comparing to the MSL team, especially in terms of computational resources. A set of support tools were developed or improved in order to support the test and development in both teams. In general, the work developed during this thesis improved the performance of the teams during play and also the e ectiveness of the developers team when in development and test phases.
Resumo:
Este trabalho focou-se no estudo do impacte das condições ambientais, de instalação e de utilização na degradação da fibra ótica, que frequentemente resultam na redução do desempenho das fibras óticas. Entre este fatores, foram estudados os efeitos de ambientes agressivos para o revestimento da fibra, nomeadamente no tempo de vida e resistência. Foi também estudado o efeito da propagação de sinais óticos de elevadas potências em curvaturas apertadas e a sua influência na degradação do desempenho da fibra ótica. Ainda neste âmbito, foi também estudado o desempenho de fibras óticas insensíveis a curvtura e fibras dopadas com Érbio, sendo analisada a dinâmica do efeito rastilho nestas fibras. Como parte integrante das redes óticas, os conetores óticos são de extrema importância na sua estrutura. O seu desempenho será refletido na qualidade do serviço da rede, e por isso é determinante estudar os fatores que contribuem para a sua degradação e mau funcionamento. Assim, este trabalho apresenta um estudo do comportamento de conetores óticos perante situações de mau manuseamento (como são limpeza insuficiente e degradação física da face final). Em adição foi também dado ênfase à reutilização de fibra danificada pelo efeito rastilho no desenvolvimento de sensores, passíveis de serem utilizados na monitorização de índice de refração, pressão hidrostática, tensão ou alta temperatura. Este procedimento surge como uma solução de baixo custo para o desenvolvimento de sensores em fibra ótica a partir de fibra danificada e inutilizável para as suas habituais aplicações em transmissão e/ou reflexão de sinais óticos.
Resumo:
Systems equipped with multiple antennas at the transmitter and at the receiver, known as MIMO (Multiple Input Multiple Output) systems, offer higher capacities, allowing an efficient exploitation of the available spectrum and/or the employment of more demanding applications. It is well known that the radio channel is characterized by multipath propagation, a phenomenon deemed problematic and whose mitigation has been achieved through techniques such as diversity, beamforming or adaptive antennas. By exploring conveniently the spatial domain MIMO systems turn the characteristics of the multipath channel into an advantage and allow creating multiple parallel and independent virtual channels. However, the achievable benefits are constrained by the propagation channel’s characteristics, which may not always be ideal. This work focuses on the characterization of the MIMO radio channel. It begins with the presentation of the fundamental results from information theory that triggered the interest on these systems, including the discussion of some of their potential benefits and a review of the existing channel models for MIMO systems. The characterization of the MIMO channel developed in this work is based on experimental measurements of the double-directional channel. The measurement system is based on a vector network analyzer and a two-dimensional positioning platform, both controlled by a computer, allowing the measurement of the channel’s frequency response at the locations of a synthetic array. Data is then processed using the SAGE (Space-Alternating Expectation-Maximization) algorithm to obtain the parameters (delay, direction of arrival and complex amplitude) of the channel’s most relevant multipath components. Afterwards, using a clustering algorithm these data are grouped into clusters. Finally, statistical information is extracted allowing the characterization of the channel’s multipath components. The information about the multipath characteristics of the channel, induced by existing scatterers in the propagation scenario, enables the characterization of MIMO channel and thus to evaluate its performance. The method was finally validated using MIMO measurements.
Resumo:
A edição 2015 da Conferência Internacional Ergotrip Design, com enfoque nas áreas de Design, Ergonomia & Interação Humano- --Computador, atravessa o Atlântico e visita a cidade de Aveiro entre os dias 25 e 28 de novembro. O evento de origem brasileira, que se realiza pela primeiro vez fora do Brasil, tem como intuito promover e alargar a cooperação e aproximar estes dois países que tanto tem de comum. A Universidade de Aveiro acolhe a edição deste ano, com organização a cargo do Departamento de Comunicação e Arte (DeCA) e pela unidade de investigação associada ID+. Instituto de Investigação em Design, Media e Cultura. Com esta iniciativa, pretende-se fundar um espaço aberto à comunidade académica, para discutir, disseminar e incentivar a cultura de projeto, desenvolvimento e investigação. Com a realização do ERGOTRIP DESIGN Aveiro 2015 pretende-se criar um ambiente favorável à partilha, diálogo, cruzamento de ideias e de conceitos, potenciando os trabalhos académicos e fortalecendo as redes de contactos transatlânticos, reunindo diferentes domínios de investigação desde Design, Ergonomia e Interação Humano-Computador.
Resumo:
Versão em português da comunicação submetida com o título “From The Survey on Regional Architecture In Portugal to the local applied research: the experience of GTAA Sotavento in the built vernacular heritage studies” à Conferência Internacional “surveys on vernacular architecture. Their significance in 20th century architectural culture” realizada no Porto (ESAP) entre 17 e 19 de Maio de 2012.
Resumo:
The PID controllers are widely used in industry. Whether because the plant is time-varying, or because of components ageing, these controllers need to be regularly retuned. During the last years, several methods have been proposed for PID autotuning.
Resumo:
La evolución tecnologica y computacional ha generado más oportunidades de mejorar la calidad de vida mediante nuevos logos médicos; en particular, con la calidad de las evaluaciones de diagnóstico. La tomografía computarizada (CT) es uno de los equipos de proyección de imagen para diagnóstico que más se han beneficiado de las mejoras tecnológicas.