79 resultados para Object-Specific Authorization Protocol
Resumo:
A presente dissertação tem como principal objectivo estimar as emissões de carbono resultantes das actividades da Monteiro, Ribas- Embalagens Flexíveis, S.A. A realização do inventário de gases de efeito estufa permite que a Monteiro, Ribas- Embalagens Flexíveis, S.A, identifique quais as suas fontes emissoras e quantifique as emissões de gases de efeito estufa, permitindo criar estratégias de redução das mesmas. A elaboração do inventário foi fundamentada nas directrizes do Greenhouse Gas Protocol, obedecendo aos princípios de relevância, integrabilidade, consistência, transparência e exactidão. A metodologia adoptada utiliza factores de emissão documentados para efectuar o cálculo das emissões de gases de efeito de estufa (GEE). Estes factores são rácios que relacionam as emissões de GEE com dados de actividade específicos para cada fonte de emissão. Como emissões directas (âmbito 1), foram quantificadas as emissões provenientes do uso de gás natural nas caldeiras, consumo de vapor e de água quente, e as emissões do veículo comercial da empresa. Como emissões indirectas de âmbito 2, incluem-se as resultantes da electricidade consumida. As emissões indirectas estimadas de âmbito 3 referem-se, no caso em estudo, ao transporte de resíduos, ao deslocamento de funcionários para a empresa e às viagens de negócio. Face ao tipo de emissões identificadas, criou-se uma ferramenta de cálculo que contém todos os valores de factores de emissão que podem ser utilizados em função das características específicas dos dados de actividade relativos às várias fontes emissoras da Empresa. Esta ferramenta permitirá, no futuro, aperfeiçoar o cálculo das emissões, a partir de uma melhor sistematização da informação disponível. Com este trabalho também foi possível identificar a necessidade de recolher e organizar alguma informação complementar à já existente. O ano base considerado foi 2011. Os resultados obtidos mostram que, neste ano, as actividades da Monteiro, Ribas- Embalagens Flexíveis, S.A serão responsáveis pela emissão de 2968,6 toneladas de CO2e (dióxido de carbono equivalente). De acordo com a Decisão 2007/589/CE da Comissão de 18 de Julho de 2007 conclui-se que a Monteiro, Ribas Embalagens e Flexíveis S.A. se enquadra na categoria de instalações com baixo níveis de emissões pois as suas emissões médias anuais são inferiores a 25000 toneladas de CO2e. Conclui-se que a percentagem maior das emissões estimadas (50,7 %) é proveniente do consumo de electricidade (emissões indirectas, âmbito 2), seguida pelo consumo de gás natural (emissões directas) que representa 39,4% das emissões. Relacionando os resultados obtidos com a produção total da Monteiro, Ribas- Embalagens Flexíveis, S.A, em 2011, obtém-se o valor de 0,65 kg de CO2e por cada quilograma de produto final. Algumas das fontes emissoras identificadas não foram incorporadas no inventário da empresa, nomeadamente o transporte das matérias-primas e dos produtos. Isto deve-se ao facto de não ter sido possível compilar a informação necessária, em tempo útil. Apesar de se tratar de emissões indirectas de âmbito 3, consideradas opcionais, recomenda-se que num próximo trabalho deste tipo, essas emissões possam vir a ser quantificadas. As principais incertezas associadas às estimativas de emissão dizem respeito aos dados de actividade uma vez que foi a primeira vez que a empresa realizou um inventário de gases de efeito de estufa. Há informações mais específicas sobre os dados de actividade que a empresa dispõe e que poderá, de futuro, sistematizar de uma forma mais adequada para a sua utilização com este fim.
Resumo:
O desenvolvimento de software orientado a modelos defende a utilização dos modelos como um artefacto que participa activamente no processo de desenvolvimento. O modelo ocupa uma posição que se encontra ao mesmo nível do código. Esta é uma abordagem importante que tem sido alvo de atenção crescente nos últimos tempos. O Object Management Group (OMG) é o responsável por uma das principais especificações utilizadas na definição da arquitectura dos sistemas cujo desenvolvimento é orientado a modelos: o Model Driven Architecture (MDA). Os projectos que têm surgido no âmbito da modelação e das linguagens específicas de domínio para a plataforma Eclipse são um bom exemplo da atenção dada a estas áreas. São projectos totalmente abertos à comunidade, que procuram respeitar os standards e que constituem uma excelente oportunidade para testar e por em prática novas ideias e abordagens. Nesta dissertação foram usadas ferramentas criadas no âmbito do Amalgamation Project, desenvolvido para a plataforma Eclipse. Explorando o UML e usando a linguagem QVT, desenvolveu-se um processo automático para extrair elementos da arquitectura do sistema a partir da definição de requisitos. Os requisitos são representados por modelos UML que são transformados de forma a obter elementos para uma aproximação inicial à arquitectura do sistema. No final, obtêm-se um modelo UML que agrega os componentes, interfaces e tipos de dados extraídos a partir dos modelos dos requisitos. É uma abordagem orientada a modelos que mostrou ser exequível, capaz de oferecer resultados práticos e promissora no que concerne a trabalho futuro.
Resumo:
Ao longo dos últimos anos tem-se verificado um desenvolvimento significativo em soluções Internet Protocol Television (IPTV), com vista a ser implementadas em diversos sectores, incluindo o mercado hoteleiro. O presente trabalho desenvolveu-se em torno de um produto específico ligado a esta área, o sistema de entretenimento NiVo. Este produto foi criado pela Nonius Software, empresa associada ao ramo das telecomunicações, que continua a expandi-lo, conferindo-lhe novas características e melhoramentos. O objectivo principal do projecto consiste no desenvolvimento de uma aplicação simuladora dos temas gráficos do sistema NiVo, com a finalidade de facilitar o processo de criação dos mesmos. Esta aplicação pretende ter uma apresentação e interactividade o mais próxima possível do sistema real, permitindo realizar o teste/validação de um tema, sem a necessidade de utilização de equipamento que compõe o sistema NiVo. Um segundo objectivo baseia-se no desenvolvimento de uma aplicação de ajuda à composição de temas, evitando que estes sejam desenvolvidos manualmente, sem qualquer tipo de suporte, o que pode resultar em erros. Para o cumprimento dos objectivos estabelecidos, focando-se no desenvolvimento do simulador, utilizou-se a tecnologia Flash, sendo esta muito utilizada para a criação de animações interactivas. Desta forma, a aplicação desenvolvida tira partido das vantagens fornecidas por esta tecnologia.
Resumo:
A cada instante surgem novas soluções de aprendizagem, resultado da evolução tecnológica constante com que nos deparamos. Estas inovações potenciam uma transmissão do conhecimento entre o educador e o educando cada vez mais simplificada, rápida e eficiente. Alguns destes avanços têm em vista a centralização no aluno, através da delegação de tarefas e da disponibilização de conteúdos, investindo na autonomia e na auto-aprendizagem, de modo a que cada aluno crie o seu próprio método de estudo, e evolua gradualmente, com o acompanhamento de um professor ou sistema autónomo de aprendizagem. Com esta investigação, é pretendido fazer um estudo dos métodos de aprendizagem ao longo do tempo até à actualidade, enumerando algumas das ferramentas utilizadas no processo de aprendizagem, indicando os vários benefícios, bem como contrapartidas do uso das mesmas. Será também analisado um caso de estudo baseado numa destas ferramentas, descrevendo o seu funcionamento e modo de interacção entre as várias entidades participantes, apresentando os resultados obtidos. O caso de estudo consistirá na criação de um cenário específico de aprendizagem, na área da saúde, analisando-o em diferentes contextos, e evidenciando as características e benefícios de cada ambiente analisado, no processo aprendizagem. Será então demonstrado como é possível optimizar os processos de aprendizagem, utilizando ferramentas de informatização e automatização desses mesmos processos, de forma tornar o processo de ensino mais célere e eficaz, num ambiente controlável, e com as funcionalidades que a tecnologia actual permite.
Resumo:
O presente estudo tem como objetivo comparar experimentalmente duas crianças praticantes de Hóquei em Patins, uma normal e uma com a patologia dos joelhos valgos, avaliando qualitativamente as diferenças posturais, estáticas e dinâmicas, decorrentes da utilização dos patins específicos desta modalidade, através do sistema de análise da Força de Reação do Solo (FRS), de Eletromiografia (EMG), de captura de movimento, e de modelação e simulação. Para atingir o objetivo definiu-se um protocolo de ensaios com as seguintes tarefas: repouso com e sem patins, marcha, corrida, deslizar com os dois pés apoiados e deslizar com o pé esquerdo levantado. No repouso avaliou-se a variação do ponto de aplicação da FRS da criança normal e patológica, com e sem patins. Ainda na tarefa de repouso avaliou-se também as componentes médio-lateral, antero-posterior individualmente e a componente vertical da FRS, juntamente com a atividade muscular dos músculos Gastrocnémio Medial (GM), Recto Femoral (RF), Vasto Medial (VM), Vasto Lateral (VL), Bicípete Femoral (BF), Semitendinoso (ST), Tensor da Fascia Lata (TFL), Gastrocnémio Lateral (GL), de forma a comparar os valores de intensidade de FRS e da atividade muscular dos diferentes instantes de tempo desta tarefa. Para as restantes tarefas apenas se avaliou individualmente as componentes médio-lateral e antero-posterior da FRS e a componente vertical da FRS juntamente com a atividade muscular dos referidos músculos, salientando as diferenças evidentes entre as curvas da criança normal e as curvas da criança patológica durante os diferentes instantes do movimento. Todas as tarefas referidas, exceto a tarefa de repouso com patins, foram ainda simuladas recorrendo a modelos músculo-esqueléticos. A partir destas simulações do movimento obtiveram-se os ângulos articulares e efetuou-se a respetiva análise. No final dos resultados obtidos apresentou-se uma tabela de resumo com o cálculo dos coeficientes de variação de cada grandeza, exceto nos gráficos da posição no espaço da FRS, onde se constatou que existe uma grande variabilidade inter-individuo em cada tarefa. A análise dos resultados de cada tarefa permite concluir que a utilização de patins pode trazer uma maior ativação muscular para a criança patológica, embora se verifique instabilidade articular. Apesar dessa instabilidade pode-se inferir que, uma maior ativação muscular decorrente da utilização de patins, tal como acontece na prática do hóquei em patins, pode trazer uma melhoria, a longo prazo, na estabilidade da articulação do joelho e na sustentação corporal, proporcionada pelo fortalecimento muscular.
Resumo:
Molecularly imprinted polymers (MIP) were used as potentiometric sensors for the selective recognition and determination of chlormequat (CMQ). They were produced after radical polymerization of 4-vinyl pyridine (4-VP) or methacrylic acid (MAA) monomers in the presence of a cross-linker. CMQwas used as template. Similar nonimprinted (NI) polymers (NIP) were produced by removing the template from reaction media. The effect of kind and amount of MIP or NIP sensors on the potentiometric behavior was investigated. Main analytical features were evaluated in steady and flow modes of operation. The sensor MIP/4-VP exhibited the best performance, presenting fast near-Nernstian response for CMQover the concentration range 6.2×10-6 – 1.0×10-2 mol L-1 with detection limits of 4.1×10-6 mol L-1. The sensor was independent from the pH of test solutions in the range 5 – 10. Potentiometric selectivity coefficients of the proposed sensors were evaluated over several inorganic and organic cations. Results pointed out a good selectivity to CMQ. The sensor was applied to the potentiometric determination of CMQin commercial phytopharmaceuticals and spiked water samples. Recoveries ranged 96 to 108.5%.
Resumo:
Three commonly consumed and commercially valuable fish species (sardine, chub and horse mackerel) were collected from the Northeast and Eastern Central Atlantic Ocean in Portuguese waters during one year. Mercury, cadmium, lead and arsenic amounts were determined in muscles using graphite furnace and cold vapour atomic absorption spectrometry. Maximum mean levels of mercury (0.1715 ± 0.0857 mg/kg, ww) and arsenic (1.139 ± 0.350 mg/kg, ww) were detected in horse mackerel. The higher mean amounts of cadmium (0.0084 ± 0.0036 mg/kg, ww) and lead (0.0379 ± 0.0303 mg/kg, ww) were determined in chub mackerel and in sardine, respectively. Intra- and inter-specific variability of metals bioaccumulation was statistically assessed and species and length revealed to be the major influencing biometric factors, in particular for mercury and arsenic. Muscles present metal concentrations below the tolerable limits considered by European Commission Regulation and Food and Agriculture Organization of the United Nations/World Health Organization (FAO/WHO). However, estimation of non-carcinogenic and carcinogenic health risks by the target hazard quotient and target carcinogenic risk, established by the US Environmental Protection Agency, suggests that these species must be eaten in moderation due to possible hazard and carcinogenic risks derived from arsenic (in all analyzed species) and mercury ingestion (in horse and chub mackerel species).
Resumo:
A deteção e seguimento de pessoas tem uma grande variedade de aplicações em visão computacional. Embora tenha sido alvo de anos de investigação, continua a ser um tópico em aberto, e ainda hoje, um grande desafio a obtenção de uma abordagem que inclua simultaneamente exibilidade e precisão. O trabalho apresentado nesta dissertação desenvolve um caso de estudo sobre deteção e seguimento automático de faces humanas, em ambiente de sala de reuniões, concretizado num sistema flexível de baixo custo. O sistema proposto é baseado no sistema operativo GNU's Not Unix (GNU) linux, e é dividido em quatro etapas, a aquisição de vídeo, a deteção da face, o tracking e reorientação da posição da câmara. A aquisição consiste na captura de frames de vídeo das três câmaras Internet Protocol (IP) Sony SNC-RZ25P, instaladas na sala, através de uma rede Local Area Network (LAN) também ele já existente. Esta etapa fornece os frames de vídeo para processamento à detecção e tracking. A deteção usa o algoritmo proposto por Viola e Jones, para a identificação de objetos, baseando-se nas suas principais características, que permite efetuar a deteção de qualquer tipo de objeto (neste caso faces humanas) de uma forma genérica e em tempo real. As saídas da deteção, quando é identificado com sucesso uma face, são as coordenadas do posicionamento da face, no frame de vídeo. As coordenadas da face detetada são usadas pelo algoritmo de tracking, para a partir desse ponto seguir a face pelos frames de vídeo subsequentes. A etapa de tracking implementa o algoritmo Continuously Adaptive Mean-SHIFT (Camshift) que baseia o seu funcionamento na pesquisa num mapa de densidade de probabilidade, do seu valor máximo, através de iterações sucessivas. O retorno do algoritmo são as coordenadas da posição e orientação da face. Estas coordenadas permitem orientar o posicionamento da câmara de forma que a face esteja sempre o mais próximo possível do centro do campo de visão da câmara. Os resultados obtidos mostraram que o sistema de tracking proposto é capaz de reconhecer e seguir faces em movimento em sequências de frames de vídeo, mostrando adequabilidade para aplicação de monotorização em tempo real.
Resumo:
This paper presents a modified Particle Swarm Optimization (PSO) methodology to solve the problem of energy resources management with high penetration of distributed generation and Electric Vehicles (EVs) with gridable capability (V2G). The objective of the day-ahead scheduling problem in this work is to minimize operation costs, namely energy costs, regarding he management of these resources in the smart grid context. The modifications applied to the PSO aimed to improve its adequacy to solve the mentioned problem. The proposed Application Specific Modified Particle Swarm Optimization (ASMPSO) includes an intelligent mechanism to adjust velocity limits during the search process, as well as self-parameterization of PSO parameters making it more user-independent. It presents better robustness and convergence characteristics compared with the tested PSO variants as well as better constraint handling. This enables its use for addressing real world large-scale problems in much shorter times than the deterministic methods, providing system operators with adequate decision support and achieving efficient resource scheduling, even when a significant number of alternative scenarios should be considered. The paper includes two realistic case studies with different penetration of gridable vehicles (1000 and 2000). The proposed methodology is about 2600 times faster than Mixed-Integer Non-Linear Programming (MINLP) reference technique, reducing the time required from 25 h to 36 s for the scenario with 2000 vehicles, with about one percent of difference in the objective function cost value.
Resumo:
Wireless Sensor Networks (WSNs) have been attracting increasing interests in the development of a new generation of embedded systems with great potential for many applications such as surveillance, environment monitoring, emergency medical response and home automation. However, the communication paradigms in Wireless Sensor Networks differ from the ones attributed to traditional wireless networks, triggering the need for new communication protocols and mechanisms. In this Technical Report, we present a survey on communication protocols for WSNs with a particular emphasis on the lower protocol layers. We give a particular focus to the MAC (Medium Access Control) sub-layer, since it has a prominent influence on some relevant requirements that must be satisfied by WSN protocols, such as energy consumption, time performance and scalability. We overview some relevant MAC protocol solutions and discuss how they tackle the trade-off between the referred requirements.
Resumo:
A recent trend in distributed computer-controlled systems (DCCS) is to interconnect the distributed computing elements by means of multi-point broadcast networks. Since the network medium is shared between a number of network nodes, access contention exists and must be solved by a medium access control (MAC) protocol. Usually, DCCS impose real-time constraints. In essence, by real-time constraints we mean that traffic must be sent and received within a bounded interval, otherwise a timing fault is said to occur. This motivates the use of communication networks with a MAC protocol that guarantees bounded access and response times to message requests. PROFIBUS is a communication network in which the MAC protocol is based on a simplified version of the timed-token protocol. In this paper we address the cycle time properties of the PROFIBUS MAC protocol, since the knowledge of these properties is of paramount importance for guaranteeing the real-time behaviour of a distributed computer-controlled system which is supported by this type of network.
Resumo:
The marriage of emerging information technologies with control technologies is a major driving force that, in the context of the factory-floor, is creating an enormous eagerness for extending the capabilities of currently available fieldbus networks to cover functionalities not considered up to a recent past. Providing wireless capabilities to such type of communication networks is a big share of that effort. The RFieldbus European project is just one example, where PROFIBUS was provided with suitable extensions for implementing hybrid wired/wireless communication systems. In RFieldbus, interoperability between wired and wireless components is achieved by the use specific intermediate networking systems operating as repeaters, thus creating a single logical ring (SLR) network. The main advantage of the SLR approach is that the effort for protocol extensions is not significant. However, a multiple logical ring (MLR) approach provides traffic and error isolation between different network segments. This concept was introduced in, where an approach for a bridge-based architecture was briefly outlined. This paper will focus on the details of the inter-Domain Protocol (IDP), which is responsible for handling transactions between different network domains (wired or wireless) running the PROFIBUS protocol.
Resumo:
This paper provides a comprehensive study on how to use Profibus fieldbus networks to support real-time industrial communications, that is, on how to ensure the transmission of real-time messages within a maximum bound time. Profibus is base on a simplified timed token (TT) protocol, which is a well-proved solution for real-time communication systems. However, Profibus differs with respect to the TT protocol, thus preventing the application of the usual TT protocol real-time analysis. In fact, real-time solutions for networks based on the TT protocol rely on the possibility of allocating specific bandwidth for the real-time traffic. This means that a minimum amount of time is always available, at each token visit, to transmit real-time messages, transversely, with the Profibus protocol, in the worst case, only one real-time message is processed per token visit. The authors propose two approaches to guarantee the real-time behavior of the Profibus protocol: (1) an unconstrained low-priority traffic profile; and (2) a constrained low-priority traffic profile. The proposed analysis shows that the first profile is a suitable approach for more responsive systems (tighter deadlines), while the second allows for increased nonreal-time traffic throughput
Resumo:
This paper describes how MPEG-4 object based video (obv) can be used to allow selected objects to be inserted into the play-out stream to a specific user based on a profile derived for that user. The application scenario described here is for personalized product placement, and considers the value of this application in the current and evolving commercial media distribution market given the huge emphasis media distributors are currently placing on targeted advertising. This level of application of video content requires a sophisticated content description and metadata system (e.g., MPEG-7). The scenario considers the requirement for global libraries to provide the objects to be inserted into the streams. The paper then considers the commercial trading of objects between the libraries, video service providers, advertising agencies and other parties involved in the service. Consequently a brokerage of video objects is proposed based on negotiation and trading using intelligent agents representing the various parties. The proposed Media Brokerage Platform is a multi-agent system structured in two layers. In the top layer, there is a collection of coarse grain agents representing the real world players – the providers and deliverers of media contents and the market regulator profiler – and, in the bottom layer, there is a set of finer grain agents constituting the marketplace – the delegate agents and the market agent. For knowledge representation (domain, strategic and negotiation protocols) we propose a Semantic Web approach based on ontologies. The media components contents should be represented in MPEG-7 and the metadata describing the objects to be traded should follow a specific ontology. The top layer content providers and deliverers are modelled by intelligent autonomous agents that express their will to transact – buy or sell – media components by registering at a service registry. The market regulator profiler creates, according to the selected profile, a market agent, which, in turn, checks the service registry for potential trading partners for a given component and invites them for the marketplace. The subsequent negotiation and actual transaction is performed by delegate agents in accordance with their profiles and the predefined rules of the market.
Resumo:
This paper addresses sensor network applications which need to obtain an accurate image of physical phenomena and do so with a high sampling rate in both time and space. We present a fast and scalable approach for obtaining an approximate representation of all sensor readings at high sampling rate for quickly reacting to critical events in a physical environment. This approach is an improvement on previous work in that after the new approach has undergone a startup phase then the new approach can use a very small sampling period.