42 resultados para PHYSICAL EFFORT
Resumo:
Our day-to-day life is dependent on several embedded devices, and in the near future, many more objects will have computation and communication capabilities enabling an Internet of Things. Correspondingly, with an increase in the interaction of these devices around us, developing novel applications is set to become challenging with current software infrastructures. In this paper, we argue that a new paradigm for operating systems needs to be conceptualized to provide aconducive base for application development on Cyber-physical systems. We demonstrate its need and importance using a few use-case scenarios and provide the design principles behind, and an architecture of a co-operating system or CoS that can serve as an example of this new paradigm.
Resumo:
Consider the problem of designing an algorithm for acquiring sensor readings. Consider specifically the problem of obtaining an approximate representation of sensor readings where (i) sensor readings originate from different sensor nodes, (ii) the number of sensor nodes is very large, (iii) all sensor nodes are deployed in a small area (dense network) and (iv) all sensor nodes communicate over a communication medium where at most one node can transmit at a time (a single broadcast domain). We present an efficient algorithm for this problem, and our novel algorithm has two desired properties: (i) it obtains an interpolation based on all sensor readings and (ii) it is scalable, that is, its time-complexity is independent of the number of sensor nodes. Achieving these two properties is possible thanks to the close interlinking of the information processing algorithm, the communication system and a model of the physical world.
Resumo:
When the Internet was born, the purpose was to interconnect computers to share digital data at large-scale. On the other hand, when embedded systems were born, the objective was to control system components under real-time constraints through sensing devices, typically at small to medium scales. With the great evolution of the Information and Communication Technology (ICT), the tendency is to enable ubiquitous and pervasive computing to control everything (physical processes and physical objects) anytime and at a large-scale. This new vision gave recently rise to the paradigm of Cyber-Physical Systems (CPS). In this position paper, we provide a realistic vision to the concept of the Cyber-Physical Internet (CPI), discuss its design requirements and present the limitations of the current networking abstractions to fulfill these requirements. We also debate whether it is more productive to adopt a system integration approach or a radical design approach for building large-scale CPS. Finally, we present a sample of realtime challenges that must be considered in the design of the Cyber-Physical Internet.
Resumo:
Componentised systems, in particular those with fault confinement through address spaces, are currently emerging as a hot topic in embedded systems research. This paper extends the unified rate-based scheduling framework RBED in several dimensions to fit the requirements of such systems: we have removed the requirement that the deadline of a task is equal to its period. The introduction of inter-process communication reflects the need to communicate. Additionally we also discuss server tasks, budget replenishment and the low level details needed to deal with the physical reality of systems. While a number of these issues have been studied in previous work in isolation, we focus on the problems discovered and lessons learned when integrating solutions. We report on our experiences implementing the proposed mechanisms in a commercial grade OKL4 microkernel as well as an application with soft real-time and best-effort tasks on top of it.
Resumo:
In this paper, we focus on large-scale and dense Cyber- Physical Systems, and discuss methods that tightly integrate communication and computing with the underlying physical environment. We present Physical Dynamic Priority Dominance ((PD)2) protocol that exemplifies a key mechanism to devise low time-complexity communication protocols for large-scale networked sensor systems. We show that using this mechanism, one can compute aggregate quantities such as the maximum or minimum of sensor readings in a time-complexity that is equivalent to essentially one message exchange. We also illustrate the use of this mechanism in a more complex task of computing the interpolation of smooth as well as non-smooth sensor data in very low timecomplexity.
Resumo:
We present a distributed algorithm for cyber-physical systems to obtain a snapshot of sensor data. The snapshot is an approximate representation of sensor data; it is an interpolation as a function of space coordinates. The new algorithm exploits a prioritized medium access control (MAC) protocol to efficiently transmit information of the sensor data. It scales to a very large number of sensors and it is able to operate in the presence of sensor faults.
Resumo:
We use the term Cyber-Physical Systems to refer to large-scale distributed sensor systems. Locating the geographic coordinates of objects of interest is an important problemin such systems. We present a new distributed approach to localize objects and events of interest in time complexity independent of number of nodes.
Resumo:
Este trabalho descreve a abordagem abrangente sobre a melhoria do sistema de gestão da qualidade na Unidade de Imagiologia do Hospital da Boavista através da implementação das normas de acreditação da Joint Commission International (JCI). Fundamental para a melhoria geral da qualidade é a redução contínua de riscos para os doentes e para os profissionais da Unidade. Tais riscos podem existir ao nível do ambiente físico assim como no circuito dos exames e dos doentes. A acreditação em Saúde é uma das prioridades estratégicas do Ministério da Saúde e tem como objetivo fortalecer a confiança dos cidadãos nos profissionais de saúde bem como nas instituições de saúde. É importante que Portugal cultive a melhoria da qualidade e segurança nas instituições de saúde mantendo uma relação adequada custo/benefício. A União Europeia tem feito um esforço para que a acreditação seja harmoniosa nos seus princípios, no entanto é respeitada sempre a prevalência da legislação de cada país, bem como as suas especificações culturais e religiosas (Shaw, 2006), responsabilizando-o pelo seu sistema de saúde O trabalho aqui apresentado tem como objetivo principal fundamentar a escolha do modelo de acreditação da JCI para o Hospital da Boavista, nomeadamente para a Unidade de Imagiologia, ver se os padrões estão de acordo com os procedimentos da Unidade, identificar falhas e apontar possiveis melhorias. Pretende-se ainda mostrar a importância da implementação dos sistemas de certificação e acreditação da gestão da qualidade, documentada pela experiência profissional, bem como o know-how do Hospital da Boavista, assim como a complementaridade dos programas da gestão da qualidade, certificação e acreditação. A escolha do modelo de acreditação da JCI, foi uma opção do Hospital da Boavista baseada na credibilidade e no grau de exigência que a entidade impõe. Foi imperativo que a Unidade de Imagiologia realizasse as suas funções de forma válida e fiável e que disponibilizasse produtos / serviços de qualidade. A monitorização e consequente controlo de qualidade do serviço prestado pela Unidade de Imagiologia, foi difícil mas simplificado, em parte, devido ao sistema de gestão da qualidade ISO 9001:2008 já implementado, tendo este sido consolidado com a implementação da acreditação da JCI, com padrões específicos bem definidos na gestão do controlo de qualidade na Unidade de Imagiologia do Hospital da Boavista.
Resumo:
This paper presents the preliminary work of an approach where Fuzzy Boolean Nets (FBN) are being used to extract qualitative knowledge regarding the effect of prescribed fire burning on soil chemical physical properties. FBN were chosen due to the scarcity on available quantitative data.
Resumo:
Portuguese northern forests are often and severely affected by wildfires during the summer season. Some preventive actions, such as prescribed (or controlled) burnings and clear-cut logging, are often used as a measure to reduce the occurrences of wildfires. In the particular case of Serra da Cabreira forest, due to extremely difficulties in operational field work, the prescribed (or controlled) burning technique is the the most common preventive action used to reduce the existing fuel load amount. This paper focuses on a Fuzzy Boolean Nets analysis of the changes in some forest soil properties, namely pH, moisture and organic matter content, after a controlled fire, and on the difficulties found during the sampling process and how they were overcome. The monitoring process was conducted during a three-month period in Anjos, Vieira do Minho, Portugal, an area located in a contact zone between a two-mica coarse-grained porphyritic granite and a biotite with plagioclase granite. The sampling sites were located in a spot dominated by quartzphyllite with quartz veins whose bedrock is partially altered and covered by slightly thick humus, which maintains low undergrowth vegetation.
Resumo:
The container loading problem (CLP) is a combinatorial optimization problem for the spatial arrangement of cargo inside containers so as to maximize the usage of space. The algorithms for this problem are of limited practical applicability if real-world constraints are not considered, one of the most important of which is deemed to be stability. This paper addresses static stability, as opposed to dynamic stability, looking at the stability of the cargo during container loading. This paper proposes two algorithms. The first is a static stability algorithm based on static mechanical equilibrium conditions that can be used as a stability evaluation function embedded in CLP algorithms (e.g. constructive heuristics, metaheuristics). The second proposed algorithm is a physical packing sequence algorithm that, given a container loading arrangement, generates the actual sequence by which each box is placed inside the container, considering static stability and loading operation efficiency constraints.
Resumo:
The aims of the this prospective study were to analyze physical activity (PA) engagement during the first and second trimesters, considering the different guidelines published on PA, to document the individual characteristics associated with the accomplishment of these guidelines and to examine pregnant women’s perceived barriers to leisure PA, using a socioecological framework. A sample of 133 pregnant women in two stages – at 10–12 weeks’ gestation (T1) and 20– 22 weeks’ gestation (T2) – were evaluated. PA was assessed by accelerometry during the T1 and T2 evaluation stages. Socio-demographic characteristics, lifestyle factors and barriers to leisure PA were assessed via questionnaire. A large proportion of women (ranging from 32% to 96%) did not reach the levels of PA recommended by the guidelines. There were no significant differences between T1 and T2 with regard to compliance with PA recommendations. A decrease in PA levels from T1 to T2 was noted for all recommendations. No associations were found between participants’ characteristics and adherence to the recommendations in T1 and T2. No significant differences were found in barriers to leisure PA between T1 and T2. The most commonly reported barriers to leisure PA were intrapersonal, not health related. Our results indicate that there were no differences between trimesters regarding compliance of PA recommendations, and perceived barriers were similar in both trimesters.
Resumo:
Este documento descreve um modelo de tolerância a falhas para sistemas de tempo-real distribuídos. A sugestão deste modelo tem como propósito a apresentação de uma solu-ção fiável, flexível e adaptável às necessidades dos sistemas de tempo-real distribuídos. A tolerância a falhas é um aspeto extremamente importante na construção de sistemas de tempo-real e a sua aplicação traz inúmeros benefícios. Um design orientado para a to-lerância a falhas contribui para um melhor desempenho do sistema através do melhora-mento de aspetos chave como a segurança, a confiabilidade e a disponibilidade dos sis-temas. O trabalho desenvolvido centra-se na prevenção, deteção e tolerância a falhas de tipo ló-gicas (software) e físicas (hardware) e assenta numa arquitetura maioritariamente basea-da no tempo, conjugada com técnicas de redundância. O modelo preocupa-se com a efi-ciência e os custos de execução. Para isso utilizam-se também técnicas tradicionais de to-lerância a falhas, como a redundância e a migração, no sentido de não prejudicar o tempo de execução do serviço, ou seja, diminuindo o tempo de recuperação das réplicas, em ca-so de ocorrência de falhas. Neste trabalho são propostas heurísticas de baixa complexida-de para tempo-de-execução, a fim de se determinar para onde replicar os componentes que constituem o software de tempo-real e de negociá-los num mecanismo de coordena-ção por licitações. Este trabalho adapta e estende alguns algoritmos que fornecem solu-ções ainda que interrompidos. Estes algoritmos são referidos em trabalhos de investiga-ção relacionados, e são utilizados para formação de coligações entre nós coadjuvantes. O modelo proposto colmata as falhas através de técnicas de replicação ativa, tanto virtual como física, com blocos de execução concorrentes. Tenta-se melhorar ou manter a sua qualidade produzida, praticamente sem introduzir overhead de informação significativo no sistema. O modelo certifica-se que as máquinas escolhidas, para as quais os agentes migrarão, melhoram iterativamente os níveis de qualidade de serviço fornecida aos com-ponentes, em função das disponibilidades das respetivas máquinas. Caso a nova configu-ração de qualidade seja rentável para a qualidade geral do serviço, é feito um esforço no sentido de receber novos componentes em detrimento da qualidade dos já hospedados localmente. Os nós que cooperam na coligação maximizam o número de execuções para-lelas entre componentes paralelos que compõem o serviço, com o intuito de reduzir atra-sos de execução. O desenvolvimento desta tese conduziu ao modelo proposto e aos resultados apresenta-dos e foi genuinamente suportado por levantamentos bibliográficos de trabalhos de in-vestigação e desenvolvimento, literaturas e preliminares matemáticos. O trabalho tem também como base uma lista de referências bibliográficas.
Resumo:
Os Transformadores de potência são máquinas de elevada importância ao nível dos Sistemas Elétricos de Energia (SEE) uma vez que são estas máquinas que possibilitam a interligação dos diferentes níveis de tensão da rede e a transmissão de energia elétrica em Corrente Alternada (CA). Geralmente, estas máquinas são de grandes dimensões e de elevado nível de complexidade construtiva. Caracterizam-se por possuírem períodos de vida útil bastante elevados (vinte a trinta anos) e preços elevados, o que conduz a um nível de exigência de fiabilidade muito elevada, uma vez que não e viável a existência de muitos equipamentos de reserva nos SEE. Com o objetivo de tentar maximizar o período de vida útil dos transformadores de potência e a sua fiabilidade, tenta-se, cada vez mais, implementar conceitos de manutenção preventiva a este tipo de máquinas. No entanto, a gestão da sua vida útil e extremamente complexa na medida em que, estas máquinas têm vários componentes cruciais e suscetiveis de originar falhas e, quase todos eles, encontram-se no interior de uma cuba. Desta forma, não e possível obter uma imagem do seu estado, em tempo real, sem colocar o transformador fora de serviço, algo que acarreta custos elevados. Por este motivo, desenvolveu-se uma técnica que permite obter uma indicação do estado do transformador, em tempo real, sem o retirar de serviço, colhendo amostras do óleo isolante e procedendo a sua análise físico-química e Analise Gases Dissolvidos (DGA). As análises aos óleos isolantes tem vindo a adquirir uma preponderância muito elevada no diagnóstico de falhas e na analise do estado de conservação destes equipamentos tendo-se desenvolvido regras para interpretação dos parâmetros dos óleos com carácter normativo. Considerando o conhecimento relativo a interpretação dos ensaios físico-químicos e DGA ao oleol, e possível desenvolver ferramentas capazes de otimizar essas mesmas interpretações e aplicar esse conhecimento no sentido de prever a sua evolução, assim como o surgimento de possíveis falhas em transformadores, para assim otimizar os processos de manutenção. Neste campo as Redes Neuronais Artificiais (RNAs) têm um papel fundamental
Resumo:
Objectives: Coronary artery disease are associated with decreased levels of physical activity, contributing to increases in abdominal fat and consequently the metabolic risk. The use of microcurrents is an innovative and effective method to increase lipolytic rate of abdominal adipocytes. This study aims to investigate the effects of microcurrents with a homebased exercise program on total, subcutaneous and visceral abdominal adipose tissue in subjects with coronary artery disease. Methods: This controlled trial included 44 subjects with myocardial infarction, randomly divided into Intervention Group 1 (IG1; n = 16), Intervention Group 2 (IG2; n = 12) and Control Group (CG; n = 16). IG1 performed a specific exercise program at home during 8 weeks, and IG2 additionally used microcurrents on the abdominal region before the exercise program. All groups were subjected to health education sessions. Computed Tomography was used to evaluate abdominal, subcutaneous and visceral fat, accelerometers to measure habitual physical activity and the semiquantitative Food Frequency Questionnaire for dietary intake. Results: After 8 weeks, IG2 showed a significantly decreased in subcutaneous fat (p ≤ 0.05) when compared to CG. Concerning visceral fat, both intervention groups showed a significant decrease in comparison to the CG (p ≤ 0.05). No significant changes were found between groups on dietary intake and habitual physical activity, except for sedentary activity that decreased significantly in IG2 in comparison with CG (p ≤ 0.05). Conclusions: This specific exercise program showed improvements in visceral fat in individuals with coronary artery disease. Microcurrent therapy associated with a home-based exercise program suggested a decreased in subcutaneous abdominal fat.