985 resultados para self-deployment algorithms
Resumo:
The vision of the Internet of Things (IoT) includes large and dense deployment of interconnected smart sensing and monitoring devices. This vast deployment necessitates collection and processing of large volume of measurement data. However, collecting all the measured data from individual devices on such a scale may be impractical and time consuming. Moreover, processing these measurements requires complex algorithms to extract useful information. Thus, it becomes imperative to devise distributed information processing mechanisms that identify application-specific features in a timely manner and with a low overhead. In this article, we present a feature extraction mechanism for dense networks that takes advantage of dominance-based medium access control (MAC) protocols to (i) efficiently obtain global extrema of the sensed quantities, (ii) extract local extrema, and (iii) detect the boundaries of events, by using simple transforms that nodes employ on their local data. We extend our results for a large dense network with multiple broadcast domains (MBD). We discuss and compare two approaches for addressing the challenges with MBD and we show through extensive evaluations that our proposed distributed MBD approach is fast and efficient at retrieving the most valuable measurements, independent of the number sensor nodes in the network.
Resumo:
This paper addresses the challenging task of computing multiple roots of a system of nonlinear equations. A repulsion algorithm that invokes the Nelder-Mead (N-M) local search method and uses a penalty-type merit function based on the error function, known as 'erf', is presented. In the N-M algorithm context, different strategies are proposed to enhance the quality of the solutions and improve the overall efficiency. The main goal of this paper is to use a two-level factorial design of experiments to analyze the statistical significance of the observed differences in selected performance criteria produced when testing different strategies in the N-M based repulsion algorithm. The main goal of this paper is to use a two-level factorial design of experiments to analyze the statistical significance of the observed differences in selected performance criteria produced when testing different strategies in the N-M based repulsion algorithm.
Resumo:
Background Musicians are frequently affected by playing-related musculoskeletal disorders (PRMD). Common solutions used by Western medicine to treat musculoskeletal pain include rehabilitation programs and drugs, but their results are sometimes disappointing. Objective To study the effects of self-administered exercises based on Tuina techniques on the pain intensity caused by PRMD of professional orchestra musicians, using numeric visual scale (NVS). Design, setting, participants and interventions We performed a prospective, controlled, single-blinded, randomized study with musicians suffering from PRMD. Participating musicians were randomly distributed into the experimental (n = 39) and the control (n = 30) groups. After an individual diagnostic assessment, specific Tuina self-administered exercises were developed and taught to the participants. Musicians were instructed to repeat the exercises every day for 3 weeks. Main outcome measures Pain intensity was measured by NVS before the intervention and after 1, 3, 5, 10, 15 and 20 d of treatment. The procedure was the same for the control group, however the Tuina exercises were executed in points away from the commonly-used acupuncture points. Results In the treatment group, but not the control group, pain intensity was significantly reduced on days 1, 3, 5, 10, 15 and 20. Conclusion The results obtained are consistent with the hypothesis that self-administered exercises based on Tuina techniques could help professional musicians controlling the pain caused by PRMD. Although our results are very promising, further studies are needed employing a larger sample size and double blinding designs.
Resumo:
Over the last decades extended medical knowledge has been an important health care benefit in terms of disease prevention and management. However, probably with no exception, most pharmaceutical products are not devoid of adverse consequences. Immunomodulators are commonly considered a “benign” drug whose advantages bypass consequences. The immunomodulator AM3 (Immunoferon®) is a clinically used, orally administered compound whose active principle is stabilised in an inorganic matrix of calcium. We report the misuse of AM3 in three members of a family; father and two children. The drug was prescribed to the father who subsequently administered it to the children without seeking medical advice. Two months later, all subjects developed abdominal and/or flank colicky pain. Hypercalciuria was diagnosed in the children with different degrees of severity. It is likely that the calcium content of the inorganic matrix played an important role in the onset of symptoms. No adverse side effects related to the inorganic matrix of calcium of immunoferon® have been documented so far. This family case report calls attention to the risks of self -medication in a susceptible family. Paediatric patients are vulnerable as they rely on adults for the supply of medications. Concerning the use of drugs in family, especially nonprescription drugs, the quality of health care provided to the children depends on the health literacy of their parents.
Resumo:
Over the last two decades, morbidity and mortality from malaria and dengue fever among other pathogens are an increasing Public Health problem. The increase in the geographic distribution of vectors is accompanied by the emergence of viruses and diseases in new areas. There are insufficient specific therapeutic drugs available and there are no reliable vaccines for malaria or dengue, although some progress has been achieved, there is still a long way between its development and actual field use. Most mosquito control measures have failed to achieve their goals, mostly because of the mosquito's great reproductive capacity and genomic flexibility. Chemical control is increasingly restricted due to potential human toxicity, mortality in no target organisms, insecticide resistance, and other environmental impacts. Other strategies for mosquito control are desperately needed. The Sterile Insect Technique (SIT) is a species-specific and environmentally benign method for insect population suppression, it is based on mass rearing, radiation mediated sterilization, and release of a large number of male insects. Releasing of Insects carrying a dominant lethal gene (RIDL) offers a solution to many of the drawbacks of traditional SIT that have limited its application in mosquitoes while maintaining its environmentally friendly and species-specific utility. The self-limiting nature of sterile mosquitoes tends to make the issues related to field use of these somewhat less challenging than for self-spreading systems characteristic of population replacement strategies. They also are closer to field use, so might be appropriate to consider first. The prospect of genetic control methods against mosquito vectored human diseases is rapidly becoming a reality, many decisions will need to be made on a national, regional and international level regarding the biosafety, social, cultural and ethical aspects of the use and deployment of these vector control methods.
Resumo:
Dissertação apresentada para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Línguas Literatura e Cultura
Resumo:
No âmbito de uma reflexão geral sobre o modo como a subjectividade pode ser expressa através da linguagem (entendendo-se por subjectividade essa experiência individual de continuidade - ou descontinuidade em casos patológicos - do self através do tempo), procurarei colocar em destaque alguns dispositivos linguísticos que permitem ao sujeito exprimir a percepção que tem de si próprio e o conceito que devido a isso forma de si. A escolha de alguns desses dispositivos em detrimento de outros está condicionada pela análise dum texto de um paciente diagnosticado como esquizofrénico, texto esse que me foi facultado já há alguns anos na Casa de Saúde do Telhai e que fazia parte do dossier clínico do mesmo doente. De entre as várias expressões que em Linguística agrupamos sob a designação de referência deictica indiciai, isto é, de entre as diversas expressões cujo referente depende e varia de acordo com a situação comunicativa em que são empregues, os pronomes pessoais são, tal como pôde destacar Emile Benveni ste na sua apresentação do quadro formal da enunciação (1974), excelentes candidatos à expressão da subjectividade.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Biomédica
Resumo:
Dissertação apresentada como requisito parcial para obtenção do grau de Mestre em Estatística e Gestão de Informação.
Resumo:
Nos dias de hoje, os sistemas de tempo real crescem em importância e complexidade. Mediante a passagem do ambiente uniprocessador para multiprocessador, o trabalho realizado no primeiro não é completamente aplicável no segundo, dado que o nível de complexidade difere, principalmente devido à existência de múltiplos processadores no sistema. Cedo percebeu-se, que a complexidade do problema não cresce linearmente com a adição destes. Na verdade, esta complexidade apresenta-se como uma barreira ao avanço científico nesta área que, para já, se mantém desconhecida, e isto testemunha-se, essencialmente no caso de escalonamento de tarefas. A passagem para este novo ambiente, quer se trate de sistemas de tempo real ou não, promete gerar a oportunidade de realizar trabalho que no primeiro caso nunca seria possível, criando assim, novas garantias de desempenho, menos gastos monetários e menores consumos de energia. Este último fator, apresentou-se desde cedo, como, talvez, a maior barreira de desenvolvimento de novos processadores na área uniprocessador, dado que, à medida que novos eram lançados para o mercado, ao mesmo tempo que ofereciam maior performance, foram levando ao conhecimento de um limite de geração de calor que obrigou ao surgimento da área multiprocessador. No futuro, espera-se que o número de processadores num determinado chip venha a aumentar, e como é óbvio, novas técnicas de exploração das suas inerentes vantagens têm de ser desenvolvidas, e a área relacionada com os algoritmos de escalonamento não é exceção. Ao longo dos anos, diferentes categorias de algoritmos multiprocessador para dar resposta a este problema têm vindo a ser desenvolvidos, destacando-se principalmente estes: globais, particionados e semi-particionados. A perspectiva global, supõe a existência de uma fila global que é acessível por todos os processadores disponíveis. Este fato torna disponível a migração de tarefas, isto é, é possível parar a execução de uma tarefa e resumir a sua execução num processador distinto. Num dado instante, num grupo de tarefas, m, as tarefas de maior prioridade são selecionadas para execução. Este tipo promete limites de utilização altos, a custo elevado de preempções/migrações de tarefas. Em contraste, os algoritmos particionados, colocam as tarefas em partições, e estas, são atribuídas a um dos processadores disponíveis, isto é, para cada processador, é atribuída uma partição. Por essa razão, a migração de tarefas não é possível, acabando por fazer com que o limite de utilização não seja tão alto quando comparado com o caso anterior, mas o número de preempções de tarefas decresce significativamente. O esquema semi-particionado, é uma resposta de caráter hibrido entre os casos anteriores, pois existem tarefas que são particionadas, para serem executadas exclusivamente por um grupo de processadores, e outras que são atribuídas a apenas um processador. Com isto, resulta uma solução que é capaz de distribuir o trabalho a ser realizado de uma forma mais eficiente e balanceada. Infelizmente, para todos estes casos, existe uma discrepância entre a teoria e a prática, pois acaba-se por se assumir conceitos que não são aplicáveis na vida real. Para dar resposta a este problema, é necessário implementar estes algoritmos de escalonamento em sistemas operativos reais e averiguar a sua aplicabilidade, para caso isso não aconteça, as alterações necessárias sejam feitas, quer a nível teórico quer a nível prá
Resumo:
Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.
Resumo:
Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Electrical and Computer Engineering of the Faculdade de Ciências e Tecnologia of Universidade Nova de Lisboa
Resumo:
Dissertação apresentada como requisito parcial para obtenção do grau de Mestre em Estatística e Gestão de Informação.
Resumo:
OBJECTIVE: Arthropathy that mimics osteoarthritis (OA) and osteoporosis (OP) is considered a complication of hereditary hemochromatosis (HH). We have limited data comparing OA and OP prevalence among HH patients with different hemochromatosis type 1 (HFE) genotypes. We investigated the prevalence of OA and OP in patients with HH by C282Y homozygosity and compound heterozygosity (C282Y/H63D) genotype. METHODS: A total of 306 patients with HH completed a questionnaire. Clinical and demographic characteristics and presence of OA, OP and related complications were compared by genotype, adjusting for age, sex, body mass index (BMI), current smoking and menopausal status. RESULTS: In total, 266 of the 306 patients (87%) were homozygous for C282Y, and 40 (13%) were compound heterozygous. The 2 groups did not differ by median age [60 (interquartile range [IQR] 53 to 68) vs. 61 (55 to 67) years, P=0.8], sex (female: 48.8% vs. 37.5%, P=0.18) or current smoking habits (12.4% vs. 10%, P=0.3). As compared with compound heterozygous patients, C282Y homozygous patients had higher median serum ferritin concentration at diagnosis [1090 (IQR 610 to 2210) vs. 603 (362 to 950) µg/L, P<0.001], higher median transferrin saturation [80% (IQR 66 to 91%) vs. 63% (55 to 72%), P<0.001]) and lower median BMI [24.8 (22.1 to 26.9) vs. 26.2 (23.5 to 30.3) kg/m2, P<0.003]. The overall prevalence of self-reported OA was significantly higher with C282Y homozygosity than compound heterozygosity (53.4% vs. 32.5%; adjusted odds ratio [aOR] 2.4 [95% confidence interval 1.2-5.0]), as was self-reported OP (25.6% vs. 7.5%; aOR 3.5 [1.1-12.1]). CONCLUSION: Patients with C282Y homozygosity may be at increased risk of musculoskeletal complications of HH.
Resumo:
Dissertation submitted in partial fulfillment of the requirements for the Degree of Master of Science in Geospatial Technologies.