1000 resultados para Publicação eletrônica
Resumo:
Nos últimos anos tem-se verificado uma modificação nos hábitos de consumo da Internet. As suas aplicações necessitam de certas garantias que são cada vez mais exigentes e, para as acompanhar, métodos cada vez mais avançados de classificação de tráfego são utilizados de modo a lhes atribuir os seus requisitos. Este comportamento provoca no entanto um aumento da complexidade da rede, criando problemas na sua gestão e no processamento de toda a informação. Com o aumento de tráfego, a situação tende a ser cada vez pior. A solução apresentada nesta dissertação passa pela construção de duas lógicas de processamento de controladores Software-Defined Networking (SDN), que atribuem garantias às aplicações utilizando métodos de classificação de tráfego simplistas, utilizando uma metodologia first-come, first-served (FCFS), diminuindo o processamento requerido em relação a outras técnicas. Independentemente do tipo de tráfego, caso a rede consiga assegurar garantias, estas serão atribuídas. Existe um comportamento diferenciado na zona central da rede e na zona de ingresso, de modo a criar uma rede mais escalável, em que a zona de ingresso, lidando com um menor número flows, prepara-os para serem enviados para a zona central bastando a estes apenas encaminhar o tráfego para o seu destino, retirando carga desta zona onde a quantidade de flows é superior. Obtém-se assim uma rede que garante qualidade de serviço a determinados flows, evitando a utilização de técnicas pesadas ao nível de classificação, tornando-a mais escalável.
Resumo:
Nos últimos anos, a energia eléctrica tem vindo a conquistar, um lugar cada vez mais importante na sociedade, sendo nos nossos dias um bem essencial para o funcionamento normal das residências, empresas, indústrias e cidades. O problema que a presente dissertação analisa é transversal a inúmeros edifícios, que consomem diariamente uma grande quantidade de energia eléctrica, na ordem dos 900 kWh diários, ou mesmo superior. Desta forma, considera-se o consumo de eletricidade, e potenciais ineficiências no seu uso, num edifício universitário, nomeadamente a biblioteca da Faculdade de Ciências e Tecnologia (FCT) da Universidade Nova de Lisboa (UNL). Em termos mais específicos, pretende-se definir um consumo de energia mais eficiente, deslocando consumos de uns períodos horários para outros, onde as tarifas sejam mais económicas, aplicando medidas de participação ativa dos consumidores (PAC). Além disso, pretende-se simular a negociação de um novo contrato bilateral, entre um retalhista e um agente “gestor” da biblioteca da FCT, para obter um contrato melhorado, do ponto de vista do consumidor. Os principais objetivos desta dissertação são, deste modo, os seguintes: (i) estudar a contratação bilateral de energia em mercados liberalizados, com principal ênfase para a implementação de estratégias de negociação que possibilitem uma participação ativa dos consumidores, (ii) estudar a biblioteca da FCT e propor medidas de eficiência energética, e (iii) simular a negociação de um novo contrato bilateral, recorrendo ao simulador multi-agente MAN-REM. De forma sucinta, os resultados obtidos, permitem concluir que o consumo energético da biblioteca da FCT pode ser melhorado, e com base nos volumes de energia deduzidos, é possível negociar um novo contrato, mais favorável à FCT.
Resumo:
Os sistemas de comunicação sem fios são sistemas de difusão por natureza. Devido a essa sua natureza, um dos problemas inerentes à mesma deve-se à segurança e ao secretismo, pois se o canal é partilhado a informação facilmente é obtida por um utilizador não autorizado, ao contrário dos sistemas de comunicação com fios. Tradicionalmente, a introdução de segurança em sistemas de comunicação, resulta na encriptação da informação, resultante de protocolos de encriptação. No entanto, a segurança através da criptografia baseia-se na premissa de que o utilizador não autorizado tem uma capacidade de processamento limitada, pois senão poderia simplesmente tentar todas as combinações possíveis e obter a chave de encriptação. Como a capacidade de processamento tem crescido exponencialmente, este tipo de sistemas tem se tornado cada vez mais complexos para não se tornarem obsoletos. A introdução de segurança na camada física torna-se então uma opção apelativa pois pode servir como um complemento, visto que os sistemas de criptografia funcionam em camadas superiores independentes da camada fisica, apresentando assim uma abordagem multi-camada em termos de segurança. Tipicamente as técnicas de segurança no nível físico podem se agrupar em 2 tipos: técnicas que se baseiam em códigos, ou técnicas que exploram variações temporais e espaciais do canal. As primeiras diminuem a eficiência espectral do sistema, e as segundas apresentam bons resultados em ambientes dinâmicos, mas em ambientes estáticos não são muito promissores. Há também a necessidade de aumentar as taxas de transmissão nos próximos sistemas de comunicação. Devido a estes requisitos, uma das tecnologias propostas para a nova geração de comunicações, é uma tecnologia baseada numa arquitectura Multiple-Input-Multiple-Output(MIMO). Esta tecnologia é promissora e consegue atingir taxas de transferências que correspondem aos requisitos propostos. Apresenta-se assim uma nova técnica de segurança no nível físico, que explora as caracteristicas físicas do sistema, como um complemento a outras medidas de segurança em camadas mais altas. Esta técnica não provoca diminuição da eficiência espectral e é independente do canal, o que tenta solucionar os problemas das restantes técnicas já existentes.
Resumo:
Actualmente, os meios de produção industrial estão em constante desenvolvimento, de forma a corresponderem a um mercado cada vez mais globalizado, caracterizado por uma forte competição, uma pressão na redução de custos, e a existência de produtos e serviços personalizados. Entretanto, ao nível de equipamento de robótica, também se tem notado esta pressão por parte do mercado, exigindo-se equipamento com uma complexidade crescente, tanto ao nível da sua morfologia, do seu controlo e da sua utilização. Ao nível da sua utilização, tornou-se então necessário adoptar abordagens que permitam um maior controlo quanto a falhas de manuseamento e respectiva modelação destes robôs. Uma destas abordagens é a simulação. A simulação é uma das áreas com maior crescimento a nível tecnológico, sendo utilizada em várias áreas de tecnologia e informação devido à sua capacidade de adaptação, tornando-se numa área bastante dinâmica e flexível. Dentro dum contexto de robôs industriais, as aplicações mais típicas consistem na programação “offline” de robôs e na aprendizagem de robótica, tendo como objectivo estudar e analisar os comportamentos de determinados sistemas, com o intuito de reduzir a necessidade de intervenção humana em tarefas repetitivas, perigosas e dispendiosas. Além disso, a simulação está também presente na computação informática nas salas de aulas, por forma a auxiliar o professor. Foi então idealizado um sistema de simulação capaz de imitar um robô industrial em que os alunos terão que conseguir controlar, para que os vários testes sejam primeiramente implementados no simulador, diminuindo assim, o risco de causar acidentes no seu congênere real durante a fase de testes. O sistema consiste numa interface em que possibilita ao utilizador fazer um controlo manual do robô simulado, assim como ser capaz de o controlar por comandos requisitados por uma aplicação exterior através de serviços WEB, permitindo assim, a simulação de vários testes no robô industrial em causa.
Resumo:
In recent years a set of production paradigms were proposed in order to capacitate manufacturers to meet the new market requirements, such as the shift in demand for highly customized products resulting in a shorter product life cycle, rather than the traditional mass production standardized consumables. These new paradigms advocate solutions capable of facing these requirements, empowering manufacturing systems with a high capacity to adapt along with elevated flexibility and robustness in order to deal with disturbances, like unexpected orders or malfunctions. Evolvable Production Systems propose a solution based on the usage of modularity and self-organization with a fine granularity level, supporting pluggability and in this way allowing companies to add and/or remove components during execution without any extra re-programming effort. However, current monitoring software was not designed to fully support these characteristics, being commonly based on centralized SCADA systems, incapable of re-adapting during execution to the unexpected plugging/unplugging of devices nor changes in the entire system’s topology. Considering these aspects, the work developed for this thesis encompasses a fully distributed agent-based architecture, capable of performing knowledge extraction at different levels of abstraction without sacrificing the capacity to add and/or remove monitoring entities, responsible for data extraction and analysis, during runtime.
Resumo:
A introdução de videojogos como ferramenta auxiliar do processo de educação tem vindo a crescer lado a lado com a evolução tecnológica. O aumento da capacidade dos processadores e das placas gráficas permitiram um aumento na complexidade dos videojogos e, por consequência, aumentaram as experiências fornecidas pelos mesmos. Sob o prisma da educação, o uso de um videojogo não foi a primeira ferramenta utilizada. O ensino por correspondência foi o primeiro auxílio ao método de ensino, iniciando assim o primeiro conceito de e-learning. Este permite enriquecer quem procura mais conhecimento, quem não consegue ter acesso ao mesmo ou quem tem dificuldades no ensino tradicional. A dificuldade presente em crianças com problemas do neurodesenvolvimento na aprendizagem da língua portuguesa é um problema na sociedade actual e para o combater são usados vários métodos manuais, sem recurso a tecnologia, passando normalmente por exercícios manuscritos e de observação. Desta forma, as pessoas que acompanham as crianças são obriga-das a estar presentes para recolher dados, em vez de se concentrarem nas outras actividades educativas. Este facto resulta numa possível falta de interesse por parte da criança no exercício apresentado, implicando uma perda de produtividade. A introdução de tecnologias ao serviço de causas sociais é crucial, pois permite um melhor acompanhamento das crianças, auxiliando tanto as pessoas que precisam do acompanhamento como aquelas que as acompanham. Por exemplo, um sistema automático que apresente os exercícios manuscritos num ecrã e, ao mesmo tempo, guarde os dados referentes ao seu uso seria útil para as pessoas que se encarregam de ajudar as crianças na aprendizagem da Língua Portuguesa. Esta dissertação insere-se num projecto desenvolvido pelo DIFERENÇAS – Centro de Desenvolvimento Infantil, denominado por “No Reino dos Fonemas”. Este projecto baseia-se em apresentar a crianças diversas imagens com objectivos diferentes de forma a cobrir as cinco vogais e todas as consoantes, no âmbito da aprendizagem da Língua Portuguesa. Neste contexto, as crianças podem-se interessar por um videojogo e aprender ao mesmo tempo, enquanto as pessoas que as acompanham, através dos dados do videojogo, podem focar-se mais nas dificuldades apresentadas por cada criança. Desta forma, é possível uma melhor organização dos dados de cada criança e, por conseguinte, um melhor acompanhamento das suas dificuldades.
Resumo:
Nowadays, many of the manufactory and industrial system has a diagnosis system on top of it, responsible for ensuring the lifetime of the system itself. It achieves this by performing both diagnosis and error recovery procedures in real production time, on each of the individual parts of the system. There are many paradigms currently being used for diagnosis. However, they still fail to answer all the requirements imposed by the enterprises making it necessary for a different approach to take place. This happens mostly on the error recovery paradigms since the great diversity that is nowadays present in the industrial environment makes it highly unlikely for every single error to be fixed under a real time, no production stop, perspective. This work proposes a still relatively unknown paradigm to manufactory. The Artificial Immune Systems (AIS), which relies on bio-inspired algorithms, comes as a valid alternative to the ones currently being used. The proposed work is a multi-agent architecture that establishes the Artificial Immune Systems, based on bio-inspired algorithms. The main goal of this architecture is to solve for a resolution to the error currently detected by the system. The proposed architecture was tested using two different simulation environment, each meant to prove different points of views, using different tests. These tests will determine if, as the research suggests, this paradigm is a promising alternative for the industrial environment. It will also define what should be done to improve the current architecture and if it should be applied in a decentralised system.
Resumo:
Mutable state can be useful in certain algorithms, to structure programs, or for efficiency purposes. However, when shared mutable state is used in non-local or nonobvious ways, the interactions that can occur via aliases to that shared memory can be a source of program errors. Undisciplined uses of shared state may unsafely interfere with local reasoning as other aliases may interleave their changes to the shared state in unexpected ways. We propose a novel technique, rely-guarantee protocols, that structures the interactions between aliases and ensures that only safe interference is possible. We present a linear type system outfitted with our novel sharing mechanism that enables controlled interference over shared mutable resources. Each alias is assigned separate, local roles encoded in a protocol abstraction that constrains how an alias can legally use that shared state. By following the spirit of rely-guarantee reasoning, our rely-guarantee protocols ensure that only safe interference can occur but still allow many interesting uses of shared state, such as going beyond invariant and monotonic usages. This thesis describes the three core mechanisms that enable our type-based technique to work: 1) we show how a protocol models an alias’s perspective on how the shared state evolves and constrains that alias’s interactions with the shared state; 2) we show how protocols can be used while enforcing the agreed interference contract; and finally, 3) we show how to check that all local protocols to some shared state can be safely composed to ensure globally safe interference over that shared memory. The interference caused by shared state is rooted at how the uses of di↵erent aliases to that state may be interleaved (perhaps even in non-deterministic ways) at run-time. Therefore, our technique is mostly agnostic as to whether this interference was the result of alias interleaving caused by sequential or concurrent semantics. We show implementations of our technique in both settings, and highlight their di↵erences. Because sharing is “first-class” (and not tied to a module), we show a polymorphic procedure that enables abstract compositions of protocols. Thus, protocols can be specialized or extended without requiring specific knowledge of the interference produce by other protocols to that state. We show that protocol composition can ensure safety even when considering abstracted protocols. We show that this core composition mechanism is sound, decidable (without the need for manual intervention), and provide an algorithm implementation.
Resumo:
Modern fully integrated receiver architectures, require inductorless circuits to achieve their potential low area, low cost, and low power. The low noise amplifier (LNA), which is a key block in such receivers, is investigated in this thesis. LNAs can be either narrowband or wideband. Narrowband LNAs use inductors and have very low noise figure, but they occupy a large area and require a technology with RF options to obtain inductors with high Q. Recently, wideband LNAs with noise and distortion cancelling, with passive loads have been proposed, which can have low NF, but have high power consumption. In this thesis the main goal is to obtain a very low area, low power, and low-cost wideband LNA. First, it is investigated a balun LNA with noise and distortion cancelling with active loads to boost the gain and reduce the noise figure (NF). The circuit is based on a conventional balun LNA with noise and distortion cancellation, using the combination of a common-gate (CG) stage and common-source (CS) stage. Simulation and measurements results, with a 130 nm CMOS technology, show that the gain is enhanced by about 3 dB and the NF is reduced by at least 0.5 dB, with a negligible impact on the circuit linearity (IIP3 is about 0 dBm). The total power dissipation is only 4.8 mW, and the active area is less than 50 x 50 m2 . It is also investigated a balun LNA in which the gain is boosted by using a double feedback structure.We propose to replace the load resistors by active loads, which can be used to implement local feedback loops (in the CG and CS stages). This will boost the gain and reduce the noise figure (NF). Simulation results, with the same 130 nm CMOS technology as above, show that the gain is 24 dB and NF is less than 2.7 dB. The total power dissipation is only 5.4 mW (since no extra blocks are required), leading to a figure-of-merit (FoM) of 3.8 mW
Resumo:
Como “só se pode proteger aquilo que se conhece” tentaremos neste texto reflectir sobre o inventário dos mosaicos romanos, sua publicação e divulgação no Corpus nacional; mostrar como o corpus iniciado em 1992 sob a égide da Fundação Calouste Gulbenkian contribuiu para os estudos académicos e finalmente reflectir sobre o financiamento e o futuro do Corpus referindo também os mosaicos descobertos desde 2005, data do último inventário.
Resumo:
A Digital Breast Tomosynthesis (DBT) é uma técnica que permite obter imagens mamárias 3D de alta qualidade, que só podem ser obtidas através de métodos de re-construção. Os métodos de reconstrução mais rápidos são os iterativos, sendo no en-tanto computacionalmente exigentes, necessitando de sofrer muitas optimizações. Exis-tem optimizações que usam computação paralela através da implementação em GPUs usando CUDA. Como é sabido, o desenvolvimento de programas eficientes que usam GPUs é ainda uma tarefa demorada, dado que os modelos de programação disponíveis são de baixo nível, e a portabilidade do código para outras arquitecturas não é imedia-ta. É uma mais valia poder criar programas paralelos de forma rápida, com possibili-dade de serem usados em diferentes arquitecturas, sem exigir muitos conhecimentos sobre a arquitectura subjacente e sobre os modelos de programação de baixo nível. Para resolver este problema, propomos a utilização de soluções existentes que reduzam o esforço de paralelização, permitindo a sua portabilidade, garantindo ao mesmo tempo um desempenho aceitável. Para tal, vamos utilizar um framework (FastFlow) com suporte para Algorithmic Skeletons, que tiram partido da programação paralela estruturada, capturando esquemas/padrões recorrentes que são comuns na programação paralela. O trabalho realizado centrou-se na paralelização de uma das fases de reconstru-ção da imagem 3D – geração da matriz de sistema – que é uma das mais demoradas do processo de reconstrução; esse trabalho incluiu um método de ordenação modificado em relação ao existente. Foram realizadas diferentes implementações em CPU e GPU (usando OpenMP, CUDA e FastFlow) o que permitiu comparar estes ambientes de programação em termos de facilidade de desenvolvimento e eficiência da solução. A comparação feita permite concluir que o desempenho das soluções baseadas no FastFlow não é muito diferente das tradicionais o que sugere que ferramentas deste tipo podem simplificar e agilizar a implementação de um algoritmos na área de recons-trução de imagens 3D, mantendo um bom desempenho.
Resumo:
Cada vez mais a preocupação ambiental tem ditado o rumo das abordagens escolhidas nas mais variadas áreas, quer pela redução de desperdícios, quer pelo aumento da eficiência dos mais diversos processos. Quando olhamos para os consumos energéticos a nível mundial os edifícios são responsáveis por uma grande fatia destes consumos fazendo deles um dos grande ponto de interesse para implementação de sistemas que visem diminuir os consumos, permitindo assim tentar alcançar um equilíbrio sustentável entre o meio ambiente e o nosso conforto. A variável humana tem-se mostrado cada vez mais importante no desenvolvimento de ferramentas que venham permitir alcançar este objetivo, quer por via de reduções nos consumos através da remoção dos fatores de desperdício de energia, quer pelo aumento de eficiência dos sistemas utilizados nas habitações, desde a iluminação à climatização. É então importante poder ter formas de conhecer qual o comportamento humano no edifício para que possam ser criadas abordagens cada vez mais eficientes e que possam contar com melhores variáveis de entrada aumentado assim, ainda mais o seu desempenho. Na presente dissertação será feito o estudo da validade do uso do dióxido de carbono como variável de inferência para o nível de ocupação das várias divisões de um edifício de habitação. Para tal implementou-se um sistema de análise dos valores de dióxido de carbono da habitação através de módulos sem fios colocados em locais estratégicos que fornecerão informação ao algoritmo para que possa ser criado um mapa de ocupação. O dióxido de carbono mostrou-se capaz de fornecer informação da ocupação no entanto apresentando uma incerteza moderada devido a fatores como os deslocamentos de ar na habitação.
Resumo:
A procura crescente de energia ao longo do tempo, e também o seu custo, tem estimulado a procura de novas formas de geração ou aproveitamento energético, donde se pode destacar a geração de energia eléctrica para autoconsumo. À semelhança de já muitos países aderentes aos sistemas de autoconsumo, Portugal também já tem legislação que permite a utilização deste tipo de sistemas através de Unidades de Produção para Autoconsumo (UPAC). Este tipo de sistemas trazem consigo vantagens tanto para o produtor, que produz a sua própria energia e assim poderá ter algum retorno financeiro, como também para a rede eléctrica nacional (RESP) que, mercê da disponibilidade de mais fontes de energia, tem a possibilidade de ficar menos sobrecarregada em períodos de ponta. Com o intuito de aproveitar ao máximo a energia produzida para autoconsumo e evitar estar a utilizar energia da rede em períodos em que a energia produzida não consegue dar resposta à procura, este trabalho propõe-se a optimizar os níveis de autoconsumo destes sistemas, que no geral apresentam valores entre os 20% e 40% anuais no sector residencial. Deste modo, e de acordo com o que é definido por Demand-Side Management (DSM) será desenvolvido neste trabalho de dissertação um projecto deste tipo, que consiste na monitorização e gestão da energia produzida numa habitação ou indústria. O desenvolvimento deste projecto assenta na criação de um sistema de autoconsumo, constituído por um painel fotovoltaico, sensores, actuadores e uma carga, assim como hardware que permitirá monitorizar, de forma remota, as condições de funcionamento do sistema e fazer a gestão de energia do mesmo, de forma remota, recorrendo para isso às tecnologias de Informação e Comunicação. As aplicações de software responsáveis por essa gestão serão desenvolvidas com recurso à linguagem JAVA e Arduino Programming Language. Será utilizado um módulo Wi-Fi que permitirá a troca de dados entre Cliente (Arduino UNO com Microchip RN-171-XV) e Servidor (Aplicação em JAVA presente num computador). No final serão analisados os levantamentos de energia produzida e avaliado se o controlo de cargas é feito consoante as melhores condições de aproveitamento da energia produzida.
Resumo:
Esta tese A Matemática e a Narrativa – Reflexos de Afinidades Históricas e Epistemológicas: Uma Conceptualização Pedagógica da Matemática trata de questões problemáticas relativamente à transmissão de conceitos em matemática. Primeiramente, a matemática, uma construção humana tanto na sua concepção como na sua evolução, não se apresenta imediatamente acessível e utilizável pela generalidade dos seres humanos. A sua utilização encontra-se caracteristicamente restrita a quem domine o formalismo simbólico. Relativamente a outras áreas científicas, tem emergido o desejo de comunicar, de forma clara, o conteúdo ideário dos seus respectivos domínios do conhecimento aos não especialistas. Não obstante tais esforços de comunicação terem vindo a ser concretizados com sucesso em várias áreas, o mesmo tem-se verificado com maior raridade na matemática, dada a dificuldade intrínseca de fornecer expressões rigorosas e simultaneamente acessíveis dos supracitados formalismos simbólicos. Em segundo lugar, os problemas pedagógicos contemporâneos, já patentes na Gazeta de Matemática, publicação que acompanhou grande parte do século XX em Portugal, centram-se na dificuldade de atrair os alunos para os desafios com os quais a matemática confronta o engenho humano. Consequentemente, a produção futura de conhecimento pode ressentir-se deste facto. Ao não pactuar com o cepticismo que envolve a tradução das ideias matemáticas para suportes não-formais, contestam-se as premissas dissonantes nas quais se fundamenta. Os modelos teóricos publicados por académicos contemporâneos atestam a pertinência de uma perspectiva inovadora neste domínio. Além disso, foram desenvolvidos instrumentos pedagógicos que melhoram a transmissão de conceitos matemáticos, indicando a importância educativa da narrativa, em particular. Tanto do ponto de vista conceptual, como da prática, o papel essencial do discurso oral (narrativa/conto oral) perante a transmissão do conhecimento matemático é cada vez mais enfatizado. É proposto, como uma abordagem inovadora à comunicação da matemática, explorar a narratividade para criar um currículo mais dinâmico. A utilização da oralidade torna-se um processo chave no ensino e na reflexão sobre o conhecimento matemático, dada a natureza híbrida (ultrapassando fronteiras) das práticas intelectuais contemporâneas.
Resumo:
When sports fans attend live sports events, they usually engage in social experiences with friends, family members and other fans at the venue sharing the same affiliation. However, fans watching the same event through a live television broadcast end up not feeling so emotionally connected with the athletes and other fans as they would if they were watching it live, together with thousands of other fans. With this in mind, we seek to create mobile applications that deliver engaging social experiences involving remote fans watching live broadcasted sports events. Taking into account the growing use of mobile devices when watching TV broadcasts, these mobile applications explore the second screen concept, which allows users to interact with content that complements the TV broadcast. Within this context, we present a set of second screen application prototypes developed to test our concepts, the corresponding user studies and results, as well as suggestions on how to apply the prototypes’ concepts not only in different sports, but also during TV shows and electronic sports. Finally, we also present the challenges we faced and the guidelines we followed during the development and evaluation phases, which may give a considerable contribution to the development of future second screen applications for live broadcasted events.