24 resultados para Unlawful and intentional interference
em Instituto Politécnico do Porto, Portugal
Resumo:
Radio interference drastically affects the performance of sensor-net communications, leading to packet loss and reduced energy-efficiency. As an increasing number of wireless devices operates on the same ISM frequencies, there is a strong need for understanding and debugging the performance of existing sensornet protocols under interference. Doing so requires a low-cost flexible testbed infrastructure that allows the repeatable generation of a wide range of interference patterns. Unfortunately, to date, existing sensornet testbeds lack such capabilities, and do not permit to study easily the coexistence problems between devices sharing the same frequencies. This paper addresses the current lack of such an infrastructure by using off-the-shelf sensor motes to record and playback interference patterns as well as to generate customizable and repeat-able interference in real-time. We propose and develop JamLab: a low-cost infrastructure to augment existing sensornet testbeds with accurate interference generation while limiting the overhead to a simple upload of the appropriate software. We explain how we tackle the hardware limitations and get an accurate measurement and regeneration of interference, and we experimentally evaluate the accuracy of JamLab with respect to time, space, and intensity. We further use JamLab to characterize the impact of interference on sensornet MAC protocols.
Resumo:
8th International Workshop on Multiple Access Communications (MACOM2015), Helsinki, Finland.
Resumo:
A novel approach to scheduling resolution by combining Autonomic Computing (AC), Multi-Agent Systems (MAS), Case-based Reasoning (CBR), and Bio-Inspired Optimization Techniques (BIT) will be described. AC has emerged as a paradigm aiming at incorporating applications with a management structure similar to the central nervous system. The main intentions are to improve resource utilization and service quality. In this paper we envisage the use of MAS paradigm for supporting dynamic and distributed scheduling in Manufacturing Systems with AC properties, in order to reduce the complexity of managing manufacturing systems and human interference. The proposed CBR based Intelligent Scheduling System was evaluated under different dynamic manufacturing scenarios.
Resumo:
In this paper, we foresee the use of Multi-Agent Systems for supporting dynamic and distributed scheduling in Manufacturing Systems. We also envisage the use of Autonomic properties in order to reduce the complexity of managing systems and human interference. By combining Multi-Agent Systems, Autonomic Computing, and Nature Inspired Techniques we propose an approach for the resolution of dynamic scheduling problem, with Case-based Reasoning Learning capabilities. The objective is to permit a system to be able to automatically adopt/select a Meta-heuristic and respective parameterization considering scheduling characteristics. From the comparison of the obtained results with previous results, we conclude about the benefits of its use.
Resumo:
We describe a novel approach to scheduling resolution by combining Autonomic Computing (AC), Multi-Agent Systems (MAS) and Nature Inspired Optimization Techniques (NIT). Autonomic Computing has emerged as paradigm aiming at embedding applications with a management structure similar to a central nervous system. A natural Autonomic Computing evolution in relation to Current Computing is to provide systems with Self-Managing ability with a minimum human interference. In this paper we envisage the use of Multi-Agent Systems paradigm for supporting dynamic and distributed scheduling in Manufacturing Systems with Autonomic properties, in order to reduce the complexity of managing systems and human interference. Additionally, we consider the resolution of realistic problems. The scheduling of a Cutting and Treatment Stainless Steel Sheet Line will be evaluated. Results show that proposed approach has advantages when compared with other scheduling systems.
Resumo:
As doenças cardiovasculares (DCV’s) são a maior causa de mortalidade e morbilidade em Portugal. O seu elevado impacto passa pelo desconhecimento, sub-diagnóstico, elevada prevalência e descontrolo dos seus principais factores de risco (clássicos e novos marcadores bioquímicos). Para o diagnóstico de uma das vertentes da doença cardiovascular, a doença cardíaca isquémica, a prova de esforço (PE) é o exame não invasivo, de baixo custo, com reduzida taxa de complicações e de fácil execução, mais usado na clínica. O objectivo deste estudo é averiguar se existe relação entre a prova de esforço, os factores de risco cardiovascular (FR’s) e alguns dos seus marcadores bioquímicos. Com vista a alcançar objectivo realizou-se um estudo prospectivo, longitudinal e descritivo, na Esferasaúde (Maia), entre Janeiro e Maio de 2011. Foram recolhidos dados, por inquérito, referentes a: biografia, antropometria, FR’s, medicação, PE e análises clínicas. Tendo sido incluídos todos os indivíduos (idade ≥ 18 anos) que tenham realizado prova de esforço e análises na unidade citada e com diferença temporal máxima de 2 meses, pelo método de amostragem dirigida e intencional. A dimensão amostral situou-se nos 30 elementos, sendo que 19 eram do género masculino. A média de idade foi 49,43±15,39 anos. Estimou-se a prevalência de FR’s e de indivíduos com valores dos marcadores bioquímicos anormais. Dois dos indivíduos apresentavam história de DCV’s e três deles PE positiva. Foram efectuadas diversas tentativas de associação entre as variáveis integradas no estudo - DCV e FR’s; PE e FR’s; PE e marcadores bioquímicos; capacidade de esforço e FR’s, género e resultado PE. Nenhuma relação se revelou significativa, com excepção para dois casos: relação entre as DCV’s e o aparecimento de alterações na PE (p = 0,002) e associação entre PE e colesterol HDL (p=0,040). Para α de 5%. Conclui-se que não existe relação aparente entre a prova de esforço, a existência de doença cardiovascular, os seus factores de risco e marcadores bioquímicos.
Resumo:
Consolidation consists in scheduling multiple virtual machines onto fewer servers in order to improve resource utilization and to reduce operational costs due to power consumption. However, virtualization technologies do not offer performance isolation, causing applications’ slowdown. In this work, we propose a performance enforcing mechanism, composed of a slowdown estimator, and a interference- and power-aware scheduling algorithm. The slowdown estimator determines, based on noisy slowdown data samples obtained from state-of-the-art slowdown meters, if tasks will complete within their deadlines, invoking the scheduling algorithm if needed. When invoked, the scheduling algorithm builds performance and power aware virtual clusters to successfully execute the tasks. We conduct simulations injecting synthetic jobs which characteristics follow the last version of the Google Cloud tracelogs. The results indicate that our strategy can be efficiently integrated with state-of-the-art slowdown meters to fulfil contracted SLAs in real-world environments, while reducing operational costs in about 12%.
Resumo:
6th Real-Time Scheduling Open Problems Seminar (RTSOPS 2015), Lund, Sweden.
Resumo:
O longo percurso de formação, iniciado com a Licenciatura em Educação Básica, termina agora com a conclusão do Mestrado em Ensino do 1º e 2º Ciclos do Ensino Básico surgindo, por isso, o presente relatório de estágio no âmbito da unidade curricular de Integração Curricular: Prática Educativa Supervisionada e Relatório de Estágio. Este caminho foi trilhado tomando opções fundamentadas e intencionais, conciliando saberes teóricos e práticos, construídos e desenvolvidos nos contextos educativos onde decorreu a Prática Educativa Supervisionada (PES). Ancorada numa perspetiva de investigação, onde se reconhecem características da metodologia de investigação-ação, a supervisão pedagógica desenrolou-se por etapas que promoveram o crescimento pessoal e profissional da futura professora. Todo o percurso espelhado no decorrer das próximas páginas foi solidamente cimentado graças à experiência partilhada dos orientadores cooperantes, dos supervisores institucionais e do par pedagógico, permitindo desenvolver e consolidar competências heurísticas, bem como a transformação e o melhoramento das práticas. Atribuiu-se, neste processo, um especial significado à relação com o par pedagógico por ter constituído um apoio fundamental, valorizando-se a colaboração, enquanto agente potenciador da tomada de decisão em contextos de incerteza e de complexidade da prática docente. Este relatório de estágio configura-se como mais uma oportunidade de autoconsciência e de reflexão relativamente ao processo de construção da identidade profissional. O constante progresso do mundo atual, as dificuldades sentidas e os obstáculos ultrapassados reforçam a ideia de que o processo de formação será sempre ávido de uma permanente atualização.
Resumo:
Relatório EPE - Relatório de estágio em Educação Pré-Escolar: O presente relatório de estágio foi realizado no âmbito da Unidade Curricular (UC) de Prática Pedagógica Supervisionada na Educação Pré-Escolar, inserida no Mestrado em Educação Pré-Escolar e Ensino do 1.º Ciclo do Ensino Básico. Sendo que este perspetiva o percurso de formação da mestranda, importa conceptualizar os referenciais teóricos e legais que sustentaram a sua ação e a metodologia utlizada durante todo o processo – investigação-ação – que inclui os seguintes processos educativos: a observação, a planificação, a ação, a avaliação e a reflexão. A Prática Pedagógica Supervisionada realizou-se na valência de creche, no Colégio Novo da Maia e teve como principais objetivos o desenvolvimento das competências profissionais e disposições subjacentes ao Perfil Geral e Específico de Desempenho do Educador de Infância. Apoiando a sua prática através da observação, recolha de dados, análise constante da ação e reflexão crítica permanente, a formanda, regulou-se pela metodologia de investigação-ação enquanto “processo em que os participantes analisam as suas próprias práticas educativas de uma forma sistemática e aprofundada” (Coutinho et al, 2009, p.360), com vista ao desenvolvimento de competências relativas a um educador enquanto investigador da própria ação. Importa acrescentar que o período de estágio foi de 210 horas e decorreu em díade de formação. A colaboração entre todos os atores intervenientes no contexto da prática pedagógica supervisionada “visa a construção de um perfil profissional que promova o desenvolvimento das competências socioprofissionais e pessoais, de forma fundamentada, reflexiva, integrada e autonomizante, à luz do princípio da aprendizagem ao longo da vida” (Ribeiro, 2013, p.2).
Resumo:
Cloud data centers have been progressively adopted in different scenarios, as reflected in the execution of heterogeneous applications with diverse workloads and diverse quality of service (QoS) requirements. Virtual machine (VM) technology eases resource management in physical servers and helps cloud providers achieve goals such as optimization of energy consumption. However, the performance of an application running inside a VM is not guaranteed due to the interference among co-hosted workloads sharing the same physical resources. Moreover, the different types of co-hosted applications with diverse QoS requirements as well as the dynamic behavior of the cloud makes efficient provisioning of resources even more difficult and a challenging problem in cloud data centers. In this paper, we address the problem of resource allocation within a data center that runs different types of application workloads, particularly CPU- and network-intensive applications. To address these challenges, we propose an interference- and power-aware management mechanism that combines a performance deviation estimator and a scheduling algorithm to guide the resource allocation in virtualized environments. We conduct simulations by injecting synthetic workloads whose characteristics follow the last version of the Google Cloud tracelogs. The results indicate that our performance-enforcing strategy is able to fulfill contracted SLAs of real-world environments while reducing energy costs by as much as 21%.
Resumo:
A crescente tendencia no acesso móvel tem sido potenciada pela tecnologia IEEE 802.11. Contudo, estas redes têm alcance rádio limitado. Para a extensão da sua cobertura é possível recorrer a redes emalhadas sem fios baseadas na tecnologia IEEE 802.11, com vantagem do ponto de vista do custo e da flexibilidade de instalação, face a soluções cabladas. Redes emalhadas sem fios constituídas por nós com apenas uma interface têm escalabilidade reduzida. A principal razão dessa limitação deve-se ao uso do mecanismo de acesso ao meio partilhado Carrier Sense Multiple Access with Collision Avoidance (CSMA/CA) em topologias multi-hop. Especificamente, o CSMA/CA não evita o problema do nó escondido levando ao aumento do número de colisões e correspondente degradação de desempenho com impacto direto no throughput e na latência. Com a redução da tecnologia rádio torna-se viável a utilização de múltiplos rádios por nó, sem com isso aumentar significativamente o custo da solução final de comunicações. A utilização de mais do que um rádio por nó de comuniações permite superar os problemas de desempenho inerentes ás redes formadas por nós com apenas um rádio. O objetivo desta tese, passa por desenvolver uma nova solução para redes emalhadas multi-cana, duar-radio, utilizando para isso novos mecanismos que complementam os mecanismos definidos no IEEE 802.11 para o estabelecimento de um Basic Service Set (BSS). A solução é baseada na solução WiFIX, um protocolo de routing para redes emalhadas de interface única e reutiliza os mecanismos já implementados nas redes IEEE 802.11 para difundir métricas que permitam à rede escalar de forma eficaz minimizando o impacto na performance. A rede multi-hop é formada por nós equipados com duas interfaces, organizados numa topologia hierárquica sobre múltiplas relações Access Point (AP) – Station (STA). Os resultados experimentais obtidos mostram a eficácia e o bom desempenho da solução proposta face à solução WiFIX original.
Resumo:
A flow injection analysis (FIA) system comprising a cysteine selective electrode as detection system was developed for determination of this amino acid in pharmaceuticals. Several electrodes were constructed for this purpose, having PVC membranes with different ionic exchangers and mediator solvents. Better working characteristics were attained with membranes comprising o-nitrophenyl octyl ether as mediator solvent and a tetraphenylborate based ionic-sensor. Injection of 500 µL standard solutions into an ionic strength adjuster carrier (3x10-3 M) of barium chloride flowing at 2.4mL min-1, showed linearity ranges from 5.0x10-5 to 5.0x10-3 M, with slopes of 76.4±0.6mV decade-1 and R2>0.9935. Slope decreased significantly under the requirement of a pH adjustment, selected at 4.5. Interference of several compounds (sodium, potassium, magnesium, barium, glucose, fructose, and sucrose) was estimated by potentiometric selectivity coefficients and considered negligible. Analysis of real samples were performed and considered accurate, with a relative error to an independent method of +2.7%.
Resumo:
A new flow-injection analytical procedure is proposed for the determination of the total amount of polyphenols in wines; the method is based on the formation of a colored complex between 4-aminoantipyrine and phenols, in the presence of an oxidizing reagent. The oxidizing agents hexacyanoferrate(III), peroxodisulfate, and tetroxoiodate(VII) were tested. Batch trials were first performed to select appropriate oxidizing agents, pH, and concentration ratios of reagents, on the basis of their effect on the stability of the colored complex. Conditions selected as a result of these trials were implemented in a flow-injection analytical system in which the influence of injection volume, flow rate, and reaction- coil length, was evaluated. Under the optimum conditions the total amount of polyphenols, expressed as gallic acid, could be determined within a concentration range of 36 to 544 mg L–1, and with a sensitivity of 344 L mol–1 cm–1 and an RSD <1.1%. The reproducibility of analytical readings was indicative of standard deviations <2%. Interference from sugars, tartaric acid, ascorbic acid, methanol, ammonium sulfate, and potassium chloride was negligible. The proposed system was applied to the determination of total polyphenols in red wines, and enabled analysis of approximately 55 samples h–1. Results were usually precise and accurate; the RSD was <3.9% and relative errors, by the Folin–Ciocalteu method, <5.1%.
Resumo:
LLF (Least Laxity First) scheduling, which assigns a higher priority to a task with a smaller laxity, has been known as an optimal preemptive scheduling algorithm on a single processor platform. However, little work has been made to illuminate its characteristics upon multiprocessor platforms. In this paper, we identify the dynamics of laxity from the system’s viewpoint and translate the dynamics into LLF multiprocessor schedulability analysis. More specifically, we first characterize laxity properties under LLF scheduling, focusing on laxity dynamics associated with a deadline miss. These laxity dynamics describe a lower bound, which leads to the deadline miss, on the number of tasks of certain laxity values at certain time instants. This lower bound is significant because it represents invariants for highly dynamic system parameters (laxity values). Since the laxity of a task is dependent of the amount of interference of higher-priority tasks, we can then derive a set of conditions to check whether a given task system can go into the laxity dynamics towards a deadline miss. This way, to the author’s best knowledge, we propose the first LLF multiprocessor schedulability test based on its own laxity properties. We also develop an improved schedulability test that exploits slack values. We mathematically prove that the proposed LLF tests dominate the state-of-the-art EDZL tests. We also present simulation results to evaluate schedulability performance of both the original and improved LLF tests in a quantitative manner.