1000 resultados para governança eletrônica
Resumo:
A introdução de videojogos como ferramenta auxiliar do processo de educação tem vindo a crescer lado a lado com a evolução tecnológica. O aumento da capacidade dos processadores e das placas gráficas permitiram um aumento na complexidade dos videojogos e, por consequência, aumentaram as experiências fornecidas pelos mesmos. Sob o prisma da educação, o uso de um videojogo não foi a primeira ferramenta utilizada. O ensino por correspondência foi o primeiro auxílio ao método de ensino, iniciando assim o primeiro conceito de e-learning. Este permite enriquecer quem procura mais conhecimento, quem não consegue ter acesso ao mesmo ou quem tem dificuldades no ensino tradicional. A dificuldade presente em crianças com problemas do neurodesenvolvimento na aprendizagem da língua portuguesa é um problema na sociedade actual e para o combater são usados vários métodos manuais, sem recurso a tecnologia, passando normalmente por exercícios manuscritos e de observação. Desta forma, as pessoas que acompanham as crianças são obriga-das a estar presentes para recolher dados, em vez de se concentrarem nas outras actividades educativas. Este facto resulta numa possível falta de interesse por parte da criança no exercício apresentado, implicando uma perda de produtividade. A introdução de tecnologias ao serviço de causas sociais é crucial, pois permite um melhor acompanhamento das crianças, auxiliando tanto as pessoas que precisam do acompanhamento como aquelas que as acompanham. Por exemplo, um sistema automático que apresente os exercícios manuscritos num ecrã e, ao mesmo tempo, guarde os dados referentes ao seu uso seria útil para as pessoas que se encarregam de ajudar as crianças na aprendizagem da Língua Portuguesa. Esta dissertação insere-se num projecto desenvolvido pelo DIFERENÇAS – Centro de Desenvolvimento Infantil, denominado por “No Reino dos Fonemas”. Este projecto baseia-se em apresentar a crianças diversas imagens com objectivos diferentes de forma a cobrir as cinco vogais e todas as consoantes, no âmbito da aprendizagem da Língua Portuguesa. Neste contexto, as crianças podem-se interessar por um videojogo e aprender ao mesmo tempo, enquanto as pessoas que as acompanham, através dos dados do videojogo, podem focar-se mais nas dificuldades apresentadas por cada criança. Desta forma, é possível uma melhor organização dos dados de cada criança e, por conseguinte, um melhor acompanhamento das suas dificuldades.
Resumo:
Nowadays, many of the manufactory and industrial system has a diagnosis system on top of it, responsible for ensuring the lifetime of the system itself. It achieves this by performing both diagnosis and error recovery procedures in real production time, on each of the individual parts of the system. There are many paradigms currently being used for diagnosis. However, they still fail to answer all the requirements imposed by the enterprises making it necessary for a different approach to take place. This happens mostly on the error recovery paradigms since the great diversity that is nowadays present in the industrial environment makes it highly unlikely for every single error to be fixed under a real time, no production stop, perspective. This work proposes a still relatively unknown paradigm to manufactory. The Artificial Immune Systems (AIS), which relies on bio-inspired algorithms, comes as a valid alternative to the ones currently being used. The proposed work is a multi-agent architecture that establishes the Artificial Immune Systems, based on bio-inspired algorithms. The main goal of this architecture is to solve for a resolution to the error currently detected by the system. The proposed architecture was tested using two different simulation environment, each meant to prove different points of views, using different tests. These tests will determine if, as the research suggests, this paradigm is a promising alternative for the industrial environment. It will also define what should be done to improve the current architecture and if it should be applied in a decentralised system.
Resumo:
Mutable state can be useful in certain algorithms, to structure programs, or for efficiency purposes. However, when shared mutable state is used in non-local or nonobvious ways, the interactions that can occur via aliases to that shared memory can be a source of program errors. Undisciplined uses of shared state may unsafely interfere with local reasoning as other aliases may interleave their changes to the shared state in unexpected ways. We propose a novel technique, rely-guarantee protocols, that structures the interactions between aliases and ensures that only safe interference is possible. We present a linear type system outfitted with our novel sharing mechanism that enables controlled interference over shared mutable resources. Each alias is assigned separate, local roles encoded in a protocol abstraction that constrains how an alias can legally use that shared state. By following the spirit of rely-guarantee reasoning, our rely-guarantee protocols ensure that only safe interference can occur but still allow many interesting uses of shared state, such as going beyond invariant and monotonic usages. This thesis describes the three core mechanisms that enable our type-based technique to work: 1) we show how a protocol models an alias’s perspective on how the shared state evolves and constrains that alias’s interactions with the shared state; 2) we show how protocols can be used while enforcing the agreed interference contract; and finally, 3) we show how to check that all local protocols to some shared state can be safely composed to ensure globally safe interference over that shared memory. The interference caused by shared state is rooted at how the uses of di↵erent aliases to that state may be interleaved (perhaps even in non-deterministic ways) at run-time. Therefore, our technique is mostly agnostic as to whether this interference was the result of alias interleaving caused by sequential or concurrent semantics. We show implementations of our technique in both settings, and highlight their di↵erences. Because sharing is “first-class” (and not tied to a module), we show a polymorphic procedure that enables abstract compositions of protocols. Thus, protocols can be specialized or extended without requiring specific knowledge of the interference produce by other protocols to that state. We show that protocol composition can ensure safety even when considering abstracted protocols. We show that this core composition mechanism is sound, decidable (without the need for manual intervention), and provide an algorithm implementation.
Resumo:
Modern fully integrated receiver architectures, require inductorless circuits to achieve their potential low area, low cost, and low power. The low noise amplifier (LNA), which is a key block in such receivers, is investigated in this thesis. LNAs can be either narrowband or wideband. Narrowband LNAs use inductors and have very low noise figure, but they occupy a large area and require a technology with RF options to obtain inductors with high Q. Recently, wideband LNAs with noise and distortion cancelling, with passive loads have been proposed, which can have low NF, but have high power consumption. In this thesis the main goal is to obtain a very low area, low power, and low-cost wideband LNA. First, it is investigated a balun LNA with noise and distortion cancelling with active loads to boost the gain and reduce the noise figure (NF). The circuit is based on a conventional balun LNA with noise and distortion cancellation, using the combination of a common-gate (CG) stage and common-source (CS) stage. Simulation and measurements results, with a 130 nm CMOS technology, show that the gain is enhanced by about 3 dB and the NF is reduced by at least 0.5 dB, with a negligible impact on the circuit linearity (IIP3 is about 0 dBm). The total power dissipation is only 4.8 mW, and the active area is less than 50 x 50 m2 . It is also investigated a balun LNA in which the gain is boosted by using a double feedback structure.We propose to replace the load resistors by active loads, which can be used to implement local feedback loops (in the CG and CS stages). This will boost the gain and reduce the noise figure (NF). Simulation results, with the same 130 nm CMOS technology as above, show that the gain is 24 dB and NF is less than 2.7 dB. The total power dissipation is only 5.4 mW (since no extra blocks are required), leading to a figure-of-merit (FoM) of 3.8 mW
Resumo:
A Digital Breast Tomosynthesis (DBT) é uma técnica que permite obter imagens mamárias 3D de alta qualidade, que só podem ser obtidas através de métodos de re-construção. Os métodos de reconstrução mais rápidos são os iterativos, sendo no en-tanto computacionalmente exigentes, necessitando de sofrer muitas optimizações. Exis-tem optimizações que usam computação paralela através da implementação em GPUs usando CUDA. Como é sabido, o desenvolvimento de programas eficientes que usam GPUs é ainda uma tarefa demorada, dado que os modelos de programação disponíveis são de baixo nível, e a portabilidade do código para outras arquitecturas não é imedia-ta. É uma mais valia poder criar programas paralelos de forma rápida, com possibili-dade de serem usados em diferentes arquitecturas, sem exigir muitos conhecimentos sobre a arquitectura subjacente e sobre os modelos de programação de baixo nível. Para resolver este problema, propomos a utilização de soluções existentes que reduzam o esforço de paralelização, permitindo a sua portabilidade, garantindo ao mesmo tempo um desempenho aceitável. Para tal, vamos utilizar um framework (FastFlow) com suporte para Algorithmic Skeletons, que tiram partido da programação paralela estruturada, capturando esquemas/padrões recorrentes que são comuns na programação paralela. O trabalho realizado centrou-se na paralelização de uma das fases de reconstru-ção da imagem 3D – geração da matriz de sistema – que é uma das mais demoradas do processo de reconstrução; esse trabalho incluiu um método de ordenação modificado em relação ao existente. Foram realizadas diferentes implementações em CPU e GPU (usando OpenMP, CUDA e FastFlow) o que permitiu comparar estes ambientes de programação em termos de facilidade de desenvolvimento e eficiência da solução. A comparação feita permite concluir que o desempenho das soluções baseadas no FastFlow não é muito diferente das tradicionais o que sugere que ferramentas deste tipo podem simplificar e agilizar a implementação de um algoritmos na área de recons-trução de imagens 3D, mantendo um bom desempenho.
Resumo:
Cada vez mais a preocupação ambiental tem ditado o rumo das abordagens escolhidas nas mais variadas áreas, quer pela redução de desperdícios, quer pelo aumento da eficiência dos mais diversos processos. Quando olhamos para os consumos energéticos a nível mundial os edifícios são responsáveis por uma grande fatia destes consumos fazendo deles um dos grande ponto de interesse para implementação de sistemas que visem diminuir os consumos, permitindo assim tentar alcançar um equilíbrio sustentável entre o meio ambiente e o nosso conforto. A variável humana tem-se mostrado cada vez mais importante no desenvolvimento de ferramentas que venham permitir alcançar este objetivo, quer por via de reduções nos consumos através da remoção dos fatores de desperdício de energia, quer pelo aumento de eficiência dos sistemas utilizados nas habitações, desde a iluminação à climatização. É então importante poder ter formas de conhecer qual o comportamento humano no edifício para que possam ser criadas abordagens cada vez mais eficientes e que possam contar com melhores variáveis de entrada aumentado assim, ainda mais o seu desempenho. Na presente dissertação será feito o estudo da validade do uso do dióxido de carbono como variável de inferência para o nível de ocupação das várias divisões de um edifício de habitação. Para tal implementou-se um sistema de análise dos valores de dióxido de carbono da habitação através de módulos sem fios colocados em locais estratégicos que fornecerão informação ao algoritmo para que possa ser criado um mapa de ocupação. O dióxido de carbono mostrou-se capaz de fornecer informação da ocupação no entanto apresentando uma incerteza moderada devido a fatores como os deslocamentos de ar na habitação.
Resumo:
A procura crescente de energia ao longo do tempo, e também o seu custo, tem estimulado a procura de novas formas de geração ou aproveitamento energético, donde se pode destacar a geração de energia eléctrica para autoconsumo. À semelhança de já muitos países aderentes aos sistemas de autoconsumo, Portugal também já tem legislação que permite a utilização deste tipo de sistemas através de Unidades de Produção para Autoconsumo (UPAC). Este tipo de sistemas trazem consigo vantagens tanto para o produtor, que produz a sua própria energia e assim poderá ter algum retorno financeiro, como também para a rede eléctrica nacional (RESP) que, mercê da disponibilidade de mais fontes de energia, tem a possibilidade de ficar menos sobrecarregada em períodos de ponta. Com o intuito de aproveitar ao máximo a energia produzida para autoconsumo e evitar estar a utilizar energia da rede em períodos em que a energia produzida não consegue dar resposta à procura, este trabalho propõe-se a optimizar os níveis de autoconsumo destes sistemas, que no geral apresentam valores entre os 20% e 40% anuais no sector residencial. Deste modo, e de acordo com o que é definido por Demand-Side Management (DSM) será desenvolvido neste trabalho de dissertação um projecto deste tipo, que consiste na monitorização e gestão da energia produzida numa habitação ou indústria. O desenvolvimento deste projecto assenta na criação de um sistema de autoconsumo, constituído por um painel fotovoltaico, sensores, actuadores e uma carga, assim como hardware que permitirá monitorizar, de forma remota, as condições de funcionamento do sistema e fazer a gestão de energia do mesmo, de forma remota, recorrendo para isso às tecnologias de Informação e Comunicação. As aplicações de software responsáveis por essa gestão serão desenvolvidas com recurso à linguagem JAVA e Arduino Programming Language. Será utilizado um módulo Wi-Fi que permitirá a troca de dados entre Cliente (Arduino UNO com Microchip RN-171-XV) e Servidor (Aplicação em JAVA presente num computador). No final serão analisados os levantamentos de energia produzida e avaliado se o controlo de cargas é feito consoante as melhores condições de aproveitamento da energia produzida.
Resumo:
When sports fans attend live sports events, they usually engage in social experiences with friends, family members and other fans at the venue sharing the same affiliation. However, fans watching the same event through a live television broadcast end up not feeling so emotionally connected with the athletes and other fans as they would if they were watching it live, together with thousands of other fans. With this in mind, we seek to create mobile applications that deliver engaging social experiences involving remote fans watching live broadcasted sports events. Taking into account the growing use of mobile devices when watching TV broadcasts, these mobile applications explore the second screen concept, which allows users to interact with content that complements the TV broadcast. Within this context, we present a set of second screen application prototypes developed to test our concepts, the corresponding user studies and results, as well as suggestions on how to apply the prototypes’ concepts not only in different sports, but also during TV shows and electronic sports. Finally, we also present the challenges we faced and the guidelines we followed during the development and evaluation phases, which may give a considerable contribution to the development of future second screen applications for live broadcasted events.
Resumo:
O objetivo principal deste trabalho é desenvolver um protótipo de ferramenta que permita a geração de ficheiros de configuração de sistemas distribuídos de controlo em plataformas específicas permitindo a integração de um conjunto de componentes previamente definidos. Cada componente é caracterizado como um módulo, identificando-se o conjunto de sinais e eventos de entrada e saída, bem como o seu comportamento, normalmente especificado através de um modelo em redes de Petri IOPT – RdP-IOPT (Input-Output Place-Transitions). O formato PNML (Petri Net Markup Language) será utilizado para a representação de cada componente. Os componentes referidos poderão ser obtidos através de vários métodos, nomeadamente através de ferramentas em desenvolvimento, que se encontram disponíveis em http://gres.uninova.pt/IOPT-Tools/ e também através da sua edição no editor de IOPT, como resultado da partição de um modelo expresso em IOPT, utilizando o editor Snoopy-IOPT em conjugação com a ferramenta SPLIT. Serão considerados várias formas para interligação dos componentes, incluindo-se ligações diretas e wrappers assíncronos num contexto de sistemas Globalmente Assíncronos Localmente Síncronos - GALS bem como diferentes tipos de barramentos e ligações série, incluindo Network-On-Chip específicos. A descrição da interligação entre componentes é gerada automaticamente pela ferramenta desenvolvida, tendo em conta resultados de dissertações de mestrado anteriores. As plataformas especificas de suporte à implementação incluem FPGA’s da serie Xilinx Spartan3,3E e Xilinx Virtex, e várias placas de desenvolvimento.
Resumo:
Este trabalho tem o objectivo de criar um Editor e Visualizador Web de Formas de Onda para controladores digitais especificados com modelos Redes de Petri Input-Output Place-Transition (IOPT). Após uma análise das ferramentas existentes e constatando-se a inexistência de uma ferramenta adequada a essa função, desenvolveu-se uma ferramenta denominada Wave4IOPT, que permite a visualização das formas de onda de sinais e eventos de entrada e de saída ao longo do tempo. A ferramenta permite também a visualização dos resultados do histórico de uma simulação de uma Rede de Petri IOPT, proveniente do Simulador das IOPT-Tools. Esta ferramenta incorpora funcionalidades de edição, modos de visualização e um módulo básico de identificação e correcção de erros dos valores das formas de onda. O Wave4IOPT está disponível a partir de um browser e prevê-se que venha a estar integrado no ambiente de ferramentas IOPT-Tools. Esta ferramenta foi construída utilizando tecnologias Web como HTML, JavaScript, CSS, SVG e JSON. Adicionalmente, o Wave4IOPT poderá também servir para a edição, visualização e análise de outros tipos de sinais digitais, desde que sejam preenchidos os requisitos da estrutura do ficheiro JSON que será lido pela ferramenta.
Resumo:
Wireless Sensor Networks(WSN) are networks of devices used to sense and act that applies wireless radios to communicate. To achieve a successful implementation of a wireless device it is necessary to take in consideration the existence of a wide variety of radios available, a large number of communication parameters (payload, duty cycle, etc.) and environmental conditions that may affect the device’s behaviour. However, to evaluate a specific radio towards a unique application it might be necessary to conduct trial experiments, with such a vast amount of devices, communication parameters and environmental conditions to take into consideration the number of trial cases generated can be surprisingly high. Thus, making trial experiments to achieve manual validation of wireless communication technologies becomes unsuitable due to the existence of a high number of trial cases on the field. To overcome this technological issue an automated test methodology was introduced, presenting the possibility to acquire data regarding the device’s behaviour when testing several technologies and parameters that care for a specific analysis. Therefore, this method advances the validation and analysis process of the wireless radios and allows the validation to be done without the need of specific and in depth knowledge about wireless devices.
Resumo:
Com o passar dos anos, os custos das tecnologias fotovoltaica são cada vez menores, ainda que, para muitas pessoas, seja algo dispendioso, tendo em conta a crise económica vivida nos últimos anos. Contudo, em Portugal, o sector fotovoltaico tem sofrido uma estagnação. O Decreto-Lei n.º 34/2011, não obteve a adesão esperada, uma vez que os apoios foram drasticamente reduzidos. Este aspecto tornou menos rentável o sector fotovoltaico, ainda que o país se encontre numa posição geográfica privilegiada para a produção de energia solar. Para tentar reverter a situação, o governo português aprovou uma nova legislação para o sector fotovoltaico, apresenta alterações significativas face a anterior. A mais significativa prende-se com a capacidade do sistema fotovoltaico poder injectar o excesso de energia da sua produção na rede, quando esta ultrapassa o consumo, obtendo-se, desta forma, uma remuneração de acordo com a quantidade de energia injectada. O objectivo deste trabalho é implementar uma ferramenta informática que permite avaliar a rentabilidade dos projectos fotovoltaicos, face a um determinado consumidor, de acordo com a legislação portuguesa em vigor. Neste sentido, a referida ferramenta vai analisar os dados do consumo de uma habitação familiar. Após o uso da referida ferramenta informática, concluiu-se ser financeiramente rentável a instalação de um sistema voltaico na habitação. Este resultado irá ser comparado com uma aplicação financeira e com outro software de análise de projectos, existentes no mercado.
Resumo:
É impensável viver nos dias de hoje sem energia eléctrica. Com o aumento das alterações climáticas, é fulcral substituir ou diminuir a dependência dos combustíveis fósseis, apostando em tecnologias de produção de energia mais limpas e amigas do ambiente. Neste seguimento, as energias renováveis surgem como uma boa alternativa a este problema. A tecnologia fotovoltaica aproveita a energia solar para a produção de electricidade, apresentando a vantagem de não produzir emissões durante a sua operação e ter um tipo de instalação distribuída, mas põe-se em causa o seu ciclo de vida. O principal objectivo desta dissertação é analisar o ciclo de vida da tecnologia fotovoltaica em Portugal, consistindo o objectivo secundário em comparar esta tecnologia com outras fontes de electroprodução, também em Portugal. Do ponto de vista ambiental, de maneira a ser possível identificar as fases críticas do ciclo de vida e comparar as tecnologias, foi utilizado o método Ecoblok, que fornece indicadores de desempenho. Após a análise, constatou-se que os principais impactes no ciclo de vida estão ligados à fase de produção da célula, montagem do painel e componentes do sistema (BOS). Os indicadores mais críticos são a extracção de recursos, emissão de gases de efeito de estufa e a poluição da água e do solo. Em relação à extracção de matérias-primas, o silício é abundante, mas requer elevadas quantidades de energia na sua transformação. Dentro dos tipos de tecnologia fotovoltaica, o silício monocristalino gera mais impactes ambientais comparado com o silício policristalino. Esta diferença está relacionada com o processo produtivo do silício monocristalino, um processo mais lento e com maior consumo de energia. Na comparação da tecnologia fotovoltaica com outras fontes de energia, verificou-se que a tecnologia de gás natural apresenta mais impactes gerados nos indicadores extracção de água, extracção de recursos e emissão de gases de efeito de estufa; já a tecnologia hídrica gera mais impactes no indicador uso do solo. Nos indicadores poluição da água e solo e poluição do ar, a tecnologia fotovoltaica apresenta o valor mais elevado de todas as tecnologias. A fonte de energia fotovoltaica apresenta a vantagem de ter uma produção mais estável e previsível durante o ano e de o seu horário de produção coincidir com as horas de maior consumo energético.
Resumo:
Current computer systems have evolved from featuring only a single processing unit and limited RAM, in the order of kilobytes or few megabytes, to include several multicore processors, o↵ering in the order of several tens of concurrent execution contexts, and have main memory in the order of several tens to hundreds of gigabytes. This allows to keep all data of many applications in the main memory, leading to the development of inmemory databases. Compared to disk-backed databases, in-memory databases (IMDBs) are expected to provide better performance by incurring in less I/O overhead. In this dissertation, we present a scalability study of two general purpose IMDBs on multicore systems. The results show that current general purpose IMDBs do not scale on multicores, due to contention among threads running concurrent transactions. In this work, we explore di↵erent direction to overcome the scalability issues of IMDBs in multicores, while enforcing strong isolation semantics. First, we present a solution that requires no modification to either database systems or to the applications, called MacroDB. MacroDB replicates the database among several engines, using a master-slave replication scheme, where update transactions execute on the master, while read-only transactions execute on slaves. This reduces contention, allowing MacroDB to o↵er scalable performance under read-only workloads, while updateintensive workloads su↵er from performance loss, when compared to the standalone engine. Second, we delve into the database engine and identify the concurrency control mechanism used by the storage sub-component as a scalability bottleneck. We then propose a new locking scheme that allows the removal of such mechanisms from the storage sub-component. This modification o↵ers performance improvement under all workloads, when compared to the standalone engine, while scalability is limited to read-only workloads. Next we addressed the scalability limitations for update-intensive workloads, and propose the reduction of locking granularity from the table level to the attribute level. This further improved performance for intensive and moderate update workloads, at a slight cost for read-only workloads. Scalability is limited to intensive-read and read-only workloads. Finally, we investigate the impact applications have on the performance of database systems, by studying how operation order inside transactions influences the database performance. We then propose a Read before Write (RbW) interaction pattern, under which transaction perform all read operations before executing write operations. The RbW pattern allowed TPC-C to achieve scalable performance on our modified engine for all workloads. Additionally, the RbW pattern allowed our modified engine to achieve scalable performance on multicores, almost up to the total number of cores, while enforcing strong isolation.
Resumo:
Information systems are widespread and used by anyone with computing devices as well as corporations and governments. It is often the case that security leaks are introduced during the development of an application. Reasons for these security bugs are multiple but among them one can easily identify that it is very hard to define and enforce relevant security policies in modern software. This is because modern applications often rely on container sharing and multi-tenancy where, for instance, data can be stored in the same physical space but is logically mapped into different security compartments or data structures. In turn, these security compartments, to which data is classified into in security policies, can also be dynamic and depend on runtime data. In this thesis we introduce and develop the novel notion of dependent information flow types, and focus on the problem of ensuring data confidentiality in data-centric software. Dependent information flow types fit within the standard framework of dependent type theory, but, unlike usual dependent types, crucially allow the security level of a type, rather than just the structural data type itself, to depend on runtime values. Our dependent function and dependent sum information flow types provide a direct, natural and elegant way to express and enforce fine grained security policies on programs. Namely programs that manipulate structured data types in which the security level of a structure field may depend on values dynamically stored in other fields The main contribution of this work is an efficient analysis that allows programmers to verify, during the development phase, whether programs have information leaks, that is, it verifies whether programs protect the confidentiality of the information they manipulate. As such, we also implemented a prototype typechecker that can be found at http://ctp.di.fct.unl.pt/DIFTprototype/.