99 resultados para Eletrônica embarcada
Resumo:
A Digital Breast Tomosynthesis (DBT) é uma técnica que permite obter imagens mamárias 3D de alta qualidade, que só podem ser obtidas através de métodos de re-construção. Os métodos de reconstrução mais rápidos são os iterativos, sendo no en-tanto computacionalmente exigentes, necessitando de sofrer muitas optimizações. Exis-tem optimizações que usam computação paralela através da implementação em GPUs usando CUDA. Como é sabido, o desenvolvimento de programas eficientes que usam GPUs é ainda uma tarefa demorada, dado que os modelos de programação disponíveis são de baixo nível, e a portabilidade do código para outras arquitecturas não é imedia-ta. É uma mais valia poder criar programas paralelos de forma rápida, com possibili-dade de serem usados em diferentes arquitecturas, sem exigir muitos conhecimentos sobre a arquitectura subjacente e sobre os modelos de programação de baixo nível. Para resolver este problema, propomos a utilização de soluções existentes que reduzam o esforço de paralelização, permitindo a sua portabilidade, garantindo ao mesmo tempo um desempenho aceitável. Para tal, vamos utilizar um framework (FastFlow) com suporte para Algorithmic Skeletons, que tiram partido da programação paralela estruturada, capturando esquemas/padrões recorrentes que são comuns na programação paralela. O trabalho realizado centrou-se na paralelização de uma das fases de reconstru-ção da imagem 3D – geração da matriz de sistema – que é uma das mais demoradas do processo de reconstrução; esse trabalho incluiu um método de ordenação modificado em relação ao existente. Foram realizadas diferentes implementações em CPU e GPU (usando OpenMP, CUDA e FastFlow) o que permitiu comparar estes ambientes de programação em termos de facilidade de desenvolvimento e eficiência da solução. A comparação feita permite concluir que o desempenho das soluções baseadas no FastFlow não é muito diferente das tradicionais o que sugere que ferramentas deste tipo podem simplificar e agilizar a implementação de um algoritmos na área de recons-trução de imagens 3D, mantendo um bom desempenho.
Resumo:
Cada vez mais a preocupação ambiental tem ditado o rumo das abordagens escolhidas nas mais variadas áreas, quer pela redução de desperdícios, quer pelo aumento da eficiência dos mais diversos processos. Quando olhamos para os consumos energéticos a nível mundial os edifícios são responsáveis por uma grande fatia destes consumos fazendo deles um dos grande ponto de interesse para implementação de sistemas que visem diminuir os consumos, permitindo assim tentar alcançar um equilíbrio sustentável entre o meio ambiente e o nosso conforto. A variável humana tem-se mostrado cada vez mais importante no desenvolvimento de ferramentas que venham permitir alcançar este objetivo, quer por via de reduções nos consumos através da remoção dos fatores de desperdício de energia, quer pelo aumento de eficiência dos sistemas utilizados nas habitações, desde a iluminação à climatização. É então importante poder ter formas de conhecer qual o comportamento humano no edifício para que possam ser criadas abordagens cada vez mais eficientes e que possam contar com melhores variáveis de entrada aumentado assim, ainda mais o seu desempenho. Na presente dissertação será feito o estudo da validade do uso do dióxido de carbono como variável de inferência para o nível de ocupação das várias divisões de um edifício de habitação. Para tal implementou-se um sistema de análise dos valores de dióxido de carbono da habitação através de módulos sem fios colocados em locais estratégicos que fornecerão informação ao algoritmo para que possa ser criado um mapa de ocupação. O dióxido de carbono mostrou-se capaz de fornecer informação da ocupação no entanto apresentando uma incerteza moderada devido a fatores como os deslocamentos de ar na habitação.
Resumo:
A procura crescente de energia ao longo do tempo, e também o seu custo, tem estimulado a procura de novas formas de geração ou aproveitamento energético, donde se pode destacar a geração de energia eléctrica para autoconsumo. À semelhança de já muitos países aderentes aos sistemas de autoconsumo, Portugal também já tem legislação que permite a utilização deste tipo de sistemas através de Unidades de Produção para Autoconsumo (UPAC). Este tipo de sistemas trazem consigo vantagens tanto para o produtor, que produz a sua própria energia e assim poderá ter algum retorno financeiro, como também para a rede eléctrica nacional (RESP) que, mercê da disponibilidade de mais fontes de energia, tem a possibilidade de ficar menos sobrecarregada em períodos de ponta. Com o intuito de aproveitar ao máximo a energia produzida para autoconsumo e evitar estar a utilizar energia da rede em períodos em que a energia produzida não consegue dar resposta à procura, este trabalho propõe-se a optimizar os níveis de autoconsumo destes sistemas, que no geral apresentam valores entre os 20% e 40% anuais no sector residencial. Deste modo, e de acordo com o que é definido por Demand-Side Management (DSM) será desenvolvido neste trabalho de dissertação um projecto deste tipo, que consiste na monitorização e gestão da energia produzida numa habitação ou indústria. O desenvolvimento deste projecto assenta na criação de um sistema de autoconsumo, constituído por um painel fotovoltaico, sensores, actuadores e uma carga, assim como hardware que permitirá monitorizar, de forma remota, as condições de funcionamento do sistema e fazer a gestão de energia do mesmo, de forma remota, recorrendo para isso às tecnologias de Informação e Comunicação. As aplicações de software responsáveis por essa gestão serão desenvolvidas com recurso à linguagem JAVA e Arduino Programming Language. Será utilizado um módulo Wi-Fi que permitirá a troca de dados entre Cliente (Arduino UNO com Microchip RN-171-XV) e Servidor (Aplicação em JAVA presente num computador). No final serão analisados os levantamentos de energia produzida e avaliado se o controlo de cargas é feito consoante as melhores condições de aproveitamento da energia produzida.
Resumo:
When sports fans attend live sports events, they usually engage in social experiences with friends, family members and other fans at the venue sharing the same affiliation. However, fans watching the same event through a live television broadcast end up not feeling so emotionally connected with the athletes and other fans as they would if they were watching it live, together with thousands of other fans. With this in mind, we seek to create mobile applications that deliver engaging social experiences involving remote fans watching live broadcasted sports events. Taking into account the growing use of mobile devices when watching TV broadcasts, these mobile applications explore the second screen concept, which allows users to interact with content that complements the TV broadcast. Within this context, we present a set of second screen application prototypes developed to test our concepts, the corresponding user studies and results, as well as suggestions on how to apply the prototypes’ concepts not only in different sports, but also during TV shows and electronic sports. Finally, we also present the challenges we faced and the guidelines we followed during the development and evaluation phases, which may give a considerable contribution to the development of future second screen applications for live broadcasted events.
Resumo:
O objetivo principal deste trabalho é desenvolver um protótipo de ferramenta que permita a geração de ficheiros de configuração de sistemas distribuídos de controlo em plataformas específicas permitindo a integração de um conjunto de componentes previamente definidos. Cada componente é caracterizado como um módulo, identificando-se o conjunto de sinais e eventos de entrada e saída, bem como o seu comportamento, normalmente especificado através de um modelo em redes de Petri IOPT – RdP-IOPT (Input-Output Place-Transitions). O formato PNML (Petri Net Markup Language) será utilizado para a representação de cada componente. Os componentes referidos poderão ser obtidos através de vários métodos, nomeadamente através de ferramentas em desenvolvimento, que se encontram disponíveis em http://gres.uninova.pt/IOPT-Tools/ e também através da sua edição no editor de IOPT, como resultado da partição de um modelo expresso em IOPT, utilizando o editor Snoopy-IOPT em conjugação com a ferramenta SPLIT. Serão considerados várias formas para interligação dos componentes, incluindo-se ligações diretas e wrappers assíncronos num contexto de sistemas Globalmente Assíncronos Localmente Síncronos - GALS bem como diferentes tipos de barramentos e ligações série, incluindo Network-On-Chip específicos. A descrição da interligação entre componentes é gerada automaticamente pela ferramenta desenvolvida, tendo em conta resultados de dissertações de mestrado anteriores. As plataformas especificas de suporte à implementação incluem FPGA’s da serie Xilinx Spartan3,3E e Xilinx Virtex, e várias placas de desenvolvimento.
Resumo:
Este trabalho tem o objectivo de criar um Editor e Visualizador Web de Formas de Onda para controladores digitais especificados com modelos Redes de Petri Input-Output Place-Transition (IOPT). Após uma análise das ferramentas existentes e constatando-se a inexistência de uma ferramenta adequada a essa função, desenvolveu-se uma ferramenta denominada Wave4IOPT, que permite a visualização das formas de onda de sinais e eventos de entrada e de saída ao longo do tempo. A ferramenta permite também a visualização dos resultados do histórico de uma simulação de uma Rede de Petri IOPT, proveniente do Simulador das IOPT-Tools. Esta ferramenta incorpora funcionalidades de edição, modos de visualização e um módulo básico de identificação e correcção de erros dos valores das formas de onda. O Wave4IOPT está disponível a partir de um browser e prevê-se que venha a estar integrado no ambiente de ferramentas IOPT-Tools. Esta ferramenta foi construída utilizando tecnologias Web como HTML, JavaScript, CSS, SVG e JSON. Adicionalmente, o Wave4IOPT poderá também servir para a edição, visualização e análise de outros tipos de sinais digitais, desde que sejam preenchidos os requisitos da estrutura do ficheiro JSON que será lido pela ferramenta.
Resumo:
Wireless Sensor Networks(WSN) are networks of devices used to sense and act that applies wireless radios to communicate. To achieve a successful implementation of a wireless device it is necessary to take in consideration the existence of a wide variety of radios available, a large number of communication parameters (payload, duty cycle, etc.) and environmental conditions that may affect the device’s behaviour. However, to evaluate a specific radio towards a unique application it might be necessary to conduct trial experiments, with such a vast amount of devices, communication parameters and environmental conditions to take into consideration the number of trial cases generated can be surprisingly high. Thus, making trial experiments to achieve manual validation of wireless communication technologies becomes unsuitable due to the existence of a high number of trial cases on the field. To overcome this technological issue an automated test methodology was introduced, presenting the possibility to acquire data regarding the device’s behaviour when testing several technologies and parameters that care for a specific analysis. Therefore, this method advances the validation and analysis process of the wireless radios and allows the validation to be done without the need of specific and in depth knowledge about wireless devices.
Resumo:
Com o passar dos anos, os custos das tecnologias fotovoltaica são cada vez menores, ainda que, para muitas pessoas, seja algo dispendioso, tendo em conta a crise económica vivida nos últimos anos. Contudo, em Portugal, o sector fotovoltaico tem sofrido uma estagnação. O Decreto-Lei n.º 34/2011, não obteve a adesão esperada, uma vez que os apoios foram drasticamente reduzidos. Este aspecto tornou menos rentável o sector fotovoltaico, ainda que o país se encontre numa posição geográfica privilegiada para a produção de energia solar. Para tentar reverter a situação, o governo português aprovou uma nova legislação para o sector fotovoltaico, apresenta alterações significativas face a anterior. A mais significativa prende-se com a capacidade do sistema fotovoltaico poder injectar o excesso de energia da sua produção na rede, quando esta ultrapassa o consumo, obtendo-se, desta forma, uma remuneração de acordo com a quantidade de energia injectada. O objectivo deste trabalho é implementar uma ferramenta informática que permite avaliar a rentabilidade dos projectos fotovoltaicos, face a um determinado consumidor, de acordo com a legislação portuguesa em vigor. Neste sentido, a referida ferramenta vai analisar os dados do consumo de uma habitação familiar. Após o uso da referida ferramenta informática, concluiu-se ser financeiramente rentável a instalação de um sistema voltaico na habitação. Este resultado irá ser comparado com uma aplicação financeira e com outro software de análise de projectos, existentes no mercado.
Resumo:
É impensável viver nos dias de hoje sem energia eléctrica. Com o aumento das alterações climáticas, é fulcral substituir ou diminuir a dependência dos combustíveis fósseis, apostando em tecnologias de produção de energia mais limpas e amigas do ambiente. Neste seguimento, as energias renováveis surgem como uma boa alternativa a este problema. A tecnologia fotovoltaica aproveita a energia solar para a produção de electricidade, apresentando a vantagem de não produzir emissões durante a sua operação e ter um tipo de instalação distribuída, mas põe-se em causa o seu ciclo de vida. O principal objectivo desta dissertação é analisar o ciclo de vida da tecnologia fotovoltaica em Portugal, consistindo o objectivo secundário em comparar esta tecnologia com outras fontes de electroprodução, também em Portugal. Do ponto de vista ambiental, de maneira a ser possível identificar as fases críticas do ciclo de vida e comparar as tecnologias, foi utilizado o método Ecoblok, que fornece indicadores de desempenho. Após a análise, constatou-se que os principais impactes no ciclo de vida estão ligados à fase de produção da célula, montagem do painel e componentes do sistema (BOS). Os indicadores mais críticos são a extracção de recursos, emissão de gases de efeito de estufa e a poluição da água e do solo. Em relação à extracção de matérias-primas, o silício é abundante, mas requer elevadas quantidades de energia na sua transformação. Dentro dos tipos de tecnologia fotovoltaica, o silício monocristalino gera mais impactes ambientais comparado com o silício policristalino. Esta diferença está relacionada com o processo produtivo do silício monocristalino, um processo mais lento e com maior consumo de energia. Na comparação da tecnologia fotovoltaica com outras fontes de energia, verificou-se que a tecnologia de gás natural apresenta mais impactes gerados nos indicadores extracção de água, extracção de recursos e emissão de gases de efeito de estufa; já a tecnologia hídrica gera mais impactes no indicador uso do solo. Nos indicadores poluição da água e solo e poluição do ar, a tecnologia fotovoltaica apresenta o valor mais elevado de todas as tecnologias. A fonte de energia fotovoltaica apresenta a vantagem de ter uma produção mais estável e previsível durante o ano e de o seu horário de produção coincidir com as horas de maior consumo energético.
Resumo:
Current computer systems have evolved from featuring only a single processing unit and limited RAM, in the order of kilobytes or few megabytes, to include several multicore processors, o↵ering in the order of several tens of concurrent execution contexts, and have main memory in the order of several tens to hundreds of gigabytes. This allows to keep all data of many applications in the main memory, leading to the development of inmemory databases. Compared to disk-backed databases, in-memory databases (IMDBs) are expected to provide better performance by incurring in less I/O overhead. In this dissertation, we present a scalability study of two general purpose IMDBs on multicore systems. The results show that current general purpose IMDBs do not scale on multicores, due to contention among threads running concurrent transactions. In this work, we explore di↵erent direction to overcome the scalability issues of IMDBs in multicores, while enforcing strong isolation semantics. First, we present a solution that requires no modification to either database systems or to the applications, called MacroDB. MacroDB replicates the database among several engines, using a master-slave replication scheme, where update transactions execute on the master, while read-only transactions execute on slaves. This reduces contention, allowing MacroDB to o↵er scalable performance under read-only workloads, while updateintensive workloads su↵er from performance loss, when compared to the standalone engine. Second, we delve into the database engine and identify the concurrency control mechanism used by the storage sub-component as a scalability bottleneck. We then propose a new locking scheme that allows the removal of such mechanisms from the storage sub-component. This modification o↵ers performance improvement under all workloads, when compared to the standalone engine, while scalability is limited to read-only workloads. Next we addressed the scalability limitations for update-intensive workloads, and propose the reduction of locking granularity from the table level to the attribute level. This further improved performance for intensive and moderate update workloads, at a slight cost for read-only workloads. Scalability is limited to intensive-read and read-only workloads. Finally, we investigate the impact applications have on the performance of database systems, by studying how operation order inside transactions influences the database performance. We then propose a Read before Write (RbW) interaction pattern, under which transaction perform all read operations before executing write operations. The RbW pattern allowed TPC-C to achieve scalable performance on our modified engine for all workloads. Additionally, the RbW pattern allowed our modified engine to achieve scalable performance on multicores, almost up to the total number of cores, while enforcing strong isolation.
Resumo:
Information systems are widespread and used by anyone with computing devices as well as corporations and governments. It is often the case that security leaks are introduced during the development of an application. Reasons for these security bugs are multiple but among them one can easily identify that it is very hard to define and enforce relevant security policies in modern software. This is because modern applications often rely on container sharing and multi-tenancy where, for instance, data can be stored in the same physical space but is logically mapped into different security compartments or data structures. In turn, these security compartments, to which data is classified into in security policies, can also be dynamic and depend on runtime data. In this thesis we introduce and develop the novel notion of dependent information flow types, and focus on the problem of ensuring data confidentiality in data-centric software. Dependent information flow types fit within the standard framework of dependent type theory, but, unlike usual dependent types, crucially allow the security level of a type, rather than just the structural data type itself, to depend on runtime values. Our dependent function and dependent sum information flow types provide a direct, natural and elegant way to express and enforce fine grained security policies on programs. Namely programs that manipulate structured data types in which the security level of a structure field may depend on values dynamically stored in other fields The main contribution of this work is an efficient analysis that allows programmers to verify, during the development phase, whether programs have information leaks, that is, it verifies whether programs protect the confidentiality of the information they manipulate. As such, we also implemented a prototype typechecker that can be found at http://ctp.di.fct.unl.pt/DIFTprototype/.
Resumo:
Search is now going beyond looking for factual information, and people wish to search for the opinions of others to help them in their own decision-making. Sentiment expressions or opinion expressions are used by users to express their opinion and embody important pieces of information, particularly in online commerce. The main problem that the present dissertation addresses is how to model text to find meaningful words that express a sentiment. In this context, I investigate the viability of automatically generating a sentiment lexicon for opinion retrieval and sentiment classification applications. For this research objective we propose to capture sentiment words that are derived from online users’ reviews. In this approach, we tackle a major challenge in sentiment analysis which is the detection of words that express subjective preference and domain-specific sentiment words such as jargon. To this aim we present a fully generative method that automatically learns a domain-specific lexicon and is fully independent of external sources. Sentiment lexicons can be applied in a broad set of applications, however popular recommendation algorithms have somehow been disconnected from sentiment analysis. Therefore, we present a study that explores the viability of applying sentiment analysis techniques to infer ratings in a recommendation algorithm. Furthermore, entities’ reputation is intrinsically associated with sentiment words that have a positive or negative relation with those entities. Hence, is provided a study that observes the viability of using a domain-specific lexicon to compute entities reputation. Finally, a recommendation system algorithm is improved with the use of sentiment-based ratings and entities reputation.
Resumo:
This work is devoted to the broadband wireless transmission techniques, which are serious candidates to be implemented in future broadband wireless and cellular systems, aiming at providing high and reliable data transmission and concomitantly high mobility. In order to cope with doubly-selective channels, receiver structures based on OFDM and SC-FDE block transmission techniques, are proposed, which allow cost-effective implementations, using FFT-based signal processing. The first subject to be addressed is the impact of the number of multipath components, and the diversity order, on the asymptotic performance of OFDM and SC-FDE, in uncoded and for different channel coding schemes. The obtained results show that the number of relevant separable multipath components is a key element that influences the performance of OFDM and SC-FDE schemes. Then, the improved estimation and detection performance of OFDM-based broadcasting systems, is introduced employing SFN (Single Frequency Network) operation. An initial coarse channel is obtained with resort to low-power training sequences estimation, and an iterative receiver with joint detection and channel estimation is presented. The achieved results have shown very good performance, close to that with perfect channel estimation. The next topic is related to SFN systems, devoting special attention to time-distortion effects inherent to these networks. Typically, the SFN broadcast wireless systems employ OFDM schemes to cope with severely time-dispersive channels. However, frequency errors, due to CFO, compromises the orthogonality between subcarriers. As an alternative approach, the possibility of using SC-FDE schemes (characterized by reduced envelope fluctuations and higher robustness to carrier frequency errors) is evaluated, and a technique, employing joint CFO estimation and compensation over the severe time-distortion effects, is proposed. Finally, broadband mobile wireless systems, in which the relative motion between the transmitter and receiver induces Doppler shift which is different or each propagation path, is considered, depending on the angle of incidence of that path in relation to the direction of travel. This represents a severe impairment in wireless digital communications systems, since that multipath propagation combined with the Doppler effects, lead to drastic and unpredictable fluctuations of the envelope of the received signal, severely affecting the detection performance. The channel variations due this effect are very difficult to estimate and compensate. In this work we propose a set of SC-FDE iterative receivers implementing efficient estimation and tracking techniques. The performance results show that the proposed receivers have very good performance, even in the presence of significant Doppler spread between the different groups of multipath components.
Resumo:
The global dynamics of alliances are strongly determined by the level of cooperation among states. This cooperation can be embodied in various aspects, but the level of defense and security cooperation becomes usually more doctrinal and lasting. By the nature of sovereignty that instills in the bilateral relationship, cooperation at defense and security level can leverages other forms of cooperation. The circumstances and relational balance between Brazil and Portugal seem to evolve towards distancing opportunities, despite they are culturally and institutionally untainted. The economic dynamics, the strategic projection in global sustainability terms, the scale and ambition of Brazilian regional leadership, contrasts with the actual context of Portugal, distancing himself both on the stage where they operate. On the other hand, the historical and cultural roots, the language, the affinity of the peoples of CPLP and some opportunities for economic niches, trend to attract both countries. The condition of Portugal in NATO and Europe, coupled with the ability to export technical and human resources to value-added for Brazil, seems also to become approaching factors. On the balance of these dynamics, there is a set of exogenous factors (economic, external global relations matrix, regional stability, among others), which are not always controlled by any of both countries. These factors call for strong capacity for foresight analysis and decision making, with the inherent risk. There is cooperation vectors that are not apparently penalized by geographic distance, or by the difference of realities. Among these vectors we shall highlight synergies in technological niches, highly tradable goods and, mostly, using the domain of dual technologies. The thirteen niches herein identified are: Monitoring, Navigation, Command and Control, Electronics, Optoelectronics, Communication and remote sensing, Information Technologies, Flight Simulation, Specialized Training, Fiber Optic Sensors, Materials Engineering, Nanotechnology and Communications. Cumulating with identified opportunities in traditional relational framework, both countries are growing (in geography and economic terms) into the Atlantic, making it a central element in the bilateral approach. By being at the same time a growing stage of disputes and which stability tends to be threatened, it will be done an analysis of these synergistic vectors, superimposed on the impact on Atlantic securitization process.
Resumo:
In the current global and competitive business context, it is essential that enterprises adapt their knowledge resources in order to smoothly interact and collaborate with others. However, due to the existent multiculturalism of people and enterprises, there are different representation views of business processes or products, even inside a same domain. Consequently, one of the main problems found in the interoperability between enterprise systems and applications is related to semantics. The integration and sharing of enterprises knowledge to build a common lexicon, plays an important role to the semantic adaptability of the information systems. The author proposes a framework to support the development of systems to manage dynamic semantic adaptability resolution. It allows different organisations to participate in a common knowledge base building, letting at the same time maintain their own views of the domain, without compromising the integration between them. Thus, systems are able to be aware of new knowledge, and have the capacity to learn from it and to manage its semantic interoperability in a dynamic and adaptable way. The author endorses the vision that in the near future, the semantic adaptability skills of the enterprise systems will be the booster to enterprises collaboration and the appearance of new business opportunities.