949 resultados para virtual communication architecture


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sparse matrix-vector multiplication (SMVM) is a fundamental operation in many scientific and engineering applications. In many cases sparse matrices have thousands of rows and columns where most of the entries are zero, while non-zero data is spread over the matrix. This sparsity of data locality reduces the effectiveness of data cache in general-purpose processors quite reducing their performance efficiency when compared to what is achieved with dense matrix multiplication. In this paper, we propose a parallel processing solution for SMVM in a many-core architecture. The architecture is tested with known benchmarks using a ZYNQ-7020 FPGA. The architecture is scalable in the number of core elements and limited only by the available memory bandwidth. It achieves performance efficiencies up to almost 70% and better performances than previous FPGA designs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Partial dynamic reconfiguration of FPGAs can be used to implement complex applications using the concept of virtual hardware. In this work we have used partial dynamic reconfiguration to implement a JPEG decoder with reduced area. The image decoding process was adapted to be implemented on the FPGA fabric using this technique. The architecture was tested in a low cost ZYNQ-7020 FPGA that supports dynamic reconfiguration. The results show that the proposed solution needs only 40% of the resources utilized by a static implementation. The performance of the dynamic solution is about 9X slower than the static solution by trading-off internal resources of the FPGA. A throughput of 7 images per second is achievable with the proposed partial dynamic reconfiguration solution.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The current capabilities of mobile phones in terms of communication, processing and storage, enables its use to form autonomous networks of devices that can be used in case of collapse or inexistent support from a communication infrastructure. In this paper, we propose a network configuration of nodes that provides high-speed bidirectional device-to-device communication, with symmetrical data transfer rates, in Wi-Fi Direct multi-group scenarios, without using performance hindering broadcasts. Copyright © 2015 ICST.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper proposes an implementation, based on a multi-agent system, of a management system for automated negotiation of electricity allocation for charging electric vehicles (EVs) and simulates its performance. The widespread existence of charging infrastructures capable of autonomous operation is recognised as a major driver towards the mass adoption of EVs by mobility consumers. Eventually, conflicting requirements from both power grid and EV owners require automated middleman aggregator agents to intermediate all operations, for example, bidding and negotiation, between these parts. Multi-agent systems are designed to provide distributed, modular, coordinated and collaborative management systems; therefore, they seem suitable to address the management of such complex charging infrastructures. Our solution consists in the implementation of virtual agents to be integrated into the management software of a charging infrastructure. We start by modelling the multi-agent architecture using a federated, hierarchical layers setup and as well as the agents' behaviours and interactions. Each of these layers comprises several components, for example, data bases, decision-making and auction mechanisms. The implementation of multi-agent platform and auctions rules, and of models for battery dynamics, is also addressed. Four scenarios were predefined to assess the management system performance under real usage conditions, considering different types of profiles for EVs owners', different infrastructure configurations and usage and different loads on the utility grid (where real data from the concession holder of the Portuguese electricity transmission grid is used). Simulations carried with the four scenarios validate the performance of the modelled system while complying with all the requirements. Although all of these have been performed for one charging station alone, a multi-agent design may in the future be used for the higher level problem of distributing energy among charging stations. Copyright (c) 2014 John Wiley & Sons, Ltd.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Develop a client-server application for a mobile environment can bring many challenges because of the mobile devices limitations. So, in this paper is discussed what can be the more reliable way to exchange information between a server and an Android mobile application, since it is important for users to have an application that really works in a responsive way and preferably without any errors. In this discussion two data transfer protocols (Socket and HTTP) and three serialization data formats (XML, JSON and Protocol Buffers) were tested using some metrics to evaluate which is the most practical and fast to use.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Comunicação apresentada no 8º Congresso Nacional de Administração Pública - Desafios e Soluções, em Carcavelos de 21 a 22 de Novembro de 2011.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper proposes an FPGA-based architecture for onboard hyperspectral unmixing. This method based on the Vertex Component Analysis (VCA) has several advantages, namely it is unsupervised, fully automatic, and it works without dimensionality reduction (DR) pre-processing step. The architecture has been designed for a low cost Xilinx Zynq board with a Zynq-7020 SoC FPGA based on the Artix-7 FPGA programmable logic and tested using real hyperspectral datasets. Experimental results indicate that the proposed implementation can achieve real-time processing, while maintaining the methods accuracy, which indicate the potential of the proposed platform to implement high-performance, low cost embedded systems.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Hyperspectral imaging has become one of the main topics in remote sensing applications, which comprise hundreds of spectral bands at different (almost contiguous) wavelength channels over the same area generating large data volumes comprising several GBs per flight. This high spectral resolution can be used for object detection and for discriminate between different objects based on their spectral characteristics. One of the main problems involved in hyperspectral analysis is the presence of mixed pixels, which arise when the spacial resolution of the sensor is not able to separate spectrally distinct materials. Spectral unmixing is one of the most important task for hyperspectral data exploitation. However, the unmixing algorithms can be computationally very expensive, and even high power consuming, which compromises the use in applications under on-board constraints. In recent years, graphics processing units (GPUs) have evolved into highly parallel and programmable systems. Specifically, several hyperspectral imaging algorithms have shown to be able to benefit from this hardware taking advantage of the extremely high floating-point processing performance, compact size, huge memory bandwidth, and relatively low cost of these units, which make them appealing for onboard data processing. In this paper, we propose a parallel implementation of an augmented Lagragian based method for unsupervised hyperspectral linear unmixing on GPUs using CUDA. The method called simplex identification via split augmented Lagrangian (SISAL) aims to identify the endmembers of a scene, i.e., is able to unmix hyperspectral data sets in which the pure pixel assumption is violated. The efficient implementation of SISAL method presented in this work exploits the GPU architecture at low level, using shared memory and coalesced accesses to memory.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Relatório de Estágio apresentado para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Novos Media e Práticas Web.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trabalho apresentado no âmbito do Mestrado em Engenharia Informática, como requisito parcial para obtenção do grau de Mestre em Engenharia Informática

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia Biomédica

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação apresentada como requisito parcial para obtenção do grau de Mestre em Estatística e Gestão de Informação

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Informação é o conceito genérico de tudo que possa representar, conhecimento ou comunicação. Trata-se de conhecimento registado de forma impressa ou digital, oral ou audiovisual, mas ainda pode ser registada em suporte físico. Desde o início da civilização que o Ser Humano tenta criar novas formas de transmitir informação, antes da invenção da forma escrita era utilizado o método do desenho para descrever a realidade, este método ao longo do tempo foi evoluindo, ganhando mais qualidade, pormenor e suportes mais evoluídos. Mas sempre com a mesma intenção, a de conseguir transmitir de forma mais direta e percetível informação a qualquer individuo. Dado isto, o Ser Humano sempre produziu arte e a foi preservando para mostrar aos vindouros. Neste processo, os museus em conjunto com espaços culturais e artísticos, foram assumindo um papel de relevo na sociedade. Mas inicialmente o objetivo principal dos museus era o de preservar e expor artefactos históricos e culturais. A grande evolução tecnológica dos últimos anos veio dotar o Ser Humano com formas de aceder à informação tão simples e diversificadas, que no passado eram completamente impensáveis e certamente que no futuro irão ser descobertas ainda mais formas de registar e propagar a informação. Assim o presente trabalho descreve a investigação realizada, através de uma recolha de bibliografia, levantamento do estado-da-arte, que pretende descobrir se a construção de visitas virtuais imersivas é uma boa forma para mostrar um espaço cultural ao público, que está cada vez mais exigente e disperso geograficamente. Além do levantamento são estudados alguns exemplos de visitas virtuais existentes, de modo a detetar boas praticas e formas mais usuais para a criação de uma visita. Finalmente foi descrito todo o processo desde a recolha de informação até à própria implementação, construção de um protótipo para apresentar ao utilizador o espaço de uma fundação, a do escultor José Rodrigues. Este protótipo tem por objetivo mostrar ao utilizador a fundação o mais aproximado do real possível.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Internet, conforme a conhecemos, foi projetada com base na pilha de protocolos TCP/IP, que foi desenvolvida nos anos 60 e 70 utilizando um paradigma centrado nos endereços individuais de cada máquina (denominado host-centric). Este paradigma foi extremamente bem-sucedido em interligar máquinas através de encaminhamento baseado no endereço IP. Estudos recentes demonstram que, parte significativa do tráfego atual da Internet centra-se na transferência de conteúdos, em vez das tradicionais aplicações de rede, conforme foi originalmente concebido. Surgiram então novos modelos de comunicação, entre eles, protocolos de rede ponto-a-ponto, onde cada máquina da rede pode efetuar distribuição de conteúdo (denominadas de redes peer-to-peer), para melhorar a distribuição e a troca de conteúdos na Internet. Por conseguinte, nos últimos anos o paradigma host-centric começou a ser posto em causa e apareceu uma nova abordagem de Redes Centradas na Informação (ICN - information-centric networking). Tendo em conta que a Internet, hoje em dia, basicamente é uma rede de transferência de conteúdos e informações, porque não centrar a sua evolução neste sentido, ao invés de comunicações host-to-host? O paradigma de Rede Centrada no Conteúdo (CCN - Content Centric Networking) simplifica a solução de determinados problemas de segurança relacionados com a arquitetura TCP/IP e é uma das principais propostas da nova abordagem de Redes Centradas na Informação. Um dos principais problemas do modelo TCP/IP é a proteção do conteúdo. Atualmente, para garantirmos a autenticidade e a integridade dos dados partilhados na rede, é necessário garantir a segurança do repositório e do caminho que os dados devem percorrer até ao seu destino final. No entanto, a contínua ineficácia perante os ataques de negação de serviço praticados na Internet, sugere a necessidade de que seja a própria infraestrutura da rede a fornecer mecanismos para os mitigar. Um dos principais pilares do paradigma de comunicação da CCN é focalizar-se no próprio conteúdo e não na sua localização física. Desde o seu aparecimento em 2009 e como consequência da evolução e adaptação a sua designação mudou atualmente para Redes de Conteúdos com Nome (NNC – Named Network Content). Nesta dissertação, efetuaremos um estudo de uma visão geral da arquitetura CCN, apresentando as suas principais características, quais os componentes que a compõem e como os seus mecanismos mitigam os tradicionais problemas de comunicação e de segurança. Serão efetuadas experiências com o CCNx, que é um protótipo composto por um conjunto de funcionalidades e ferramentas, que possibilitam a implementação deste paradigma. O objetivo é analisar criticamente algumas das propostas existentes, determinar oportunidades, desafios e perspectivas para investigação futura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Geocaching é um jogo, criado pela Groundspeak, que consiste em esconder e encontrar objetos geolocalizados conhecidos como geocaches. A busca das geocaches é na realidade uma aventura que promove a vivência de novas experiências, o convívio entre utilizadores, a descoberta de novos espaços na natureza, a realização de jogos em tempo e cenário real, entre outros. Existem geocaches espalhadas por todo o mundo e milhares de utilizadores estão já registados no jogo. Além de passatempo, o Geocaching consegue ser uma ferramenta de marketing digital, quer para a própria Groundspeak, mas também para diferentes empresas/instituições por todo o mundo normalmente associadas à localização das geocaches. A Groundspeak é, naturalmente, a mais beneficiada uma vez que, praticamente sem investir em publicidade, conseguiu que o jogo tenha cada vez mais adeptos. A sua divulgação é essencialmente feita pelos próprios utilizadores, quer através da comunicação direta com um não utilizador, quer através de redes sociais, de eventos organizados, mas também através de outras empresas que desenvolveram aplicações com funcionalidades extra que permitem ao utilizador uma melhor experiência. O objetivo desta dissertação foi o de demonstrar como é que o Geocaching pode ser usado como uma ferramenta de Marketing Digital. Inicialmente, foi analisada a questão do Marketing Digital e das suas ferramentas, focando o Geocaching e a sua dimensão no mundo, explicando os diferentes tipos de caches e de que forma as mesmas podem ser utilizadas como ferramentas de marketing. Como elemento de validação, foi concebida, desenvolvida e validada uma wherigo (um tipo de geocache), que consiste num jogo virtual onde o progresso do jogador depende das tarefas realizadas e da sua movimentação geolocalizada. A wherigo criada no âmbito do projeto é um meio de marketing digital, de divulgação do Castelo de Santa Maria da Feira, realizada de uma forma interativa e divertida, através de questionários, desafios e fantasia. O jogo incita a percorrer os jardins que rodeiam o Castelo bem como o interior do mesmo e permite ainda o acesso dos jogadores ao Castelo com desconto de geocacher na aquisição do ingresso. Os objetivos propostos inicialmente foram completamente cumpridos, sendo que o jogo já se encontra disponível para ser jogado por geocachers e foi por eles avaliado muito positivamente.