994 resultados para Training algorithms
Resumo:
This paper analyses the performance of a Genetic Algorithm using two new concepts, namely a static fitness function including a discontinuity measure and a fractional-order dynamic fitness function, for the synthesis of combinational logic circuits. In both cases, experiments reveal superior results in terms of speed and convergence to achieve a solution.
Resumo:
The theory of fractional calculus goes back to the beginning of thr throry of differential calculus but its inherent complexity postponed the applications of the associated concepts. In the last decade the progress in the areas of chaos and fractals revealed subtle relationships with the fractional calculus leading to an increasing interest in the development of the new paradigm. In the area of automaticcontrol preliminary work has already been carried out but the proposed algorithms are restricted to the frequency domain. The paper discusses the design of fractional-order discrete-time controllers. The algorithms studied adopt the time domein, which makes them suited for z-transform analusis and discrete-time implementation. The performance of discrete-time fractional-order controllers with linear and non-linear systems is also investigated.
Resumo:
Project submitted as part requirement for the degree of Masters in English teaching,
Resumo:
Quality of life is a concept influenced by social, economic, psychological, spiritual or medical state factors. More specifically, the perceived quality of an individual's daily life is an assessment of their well-being or lack of it. In this context, information technologies may help on the management of services for healthcare of chronic patients such as estimating the patient quality of life and helping the medical staff to take appropriate measures to increase each patient quality of life. This paper describes a Quality of Life estimation system developed using information technologies and the application of data mining algorithms to access the information of clinical data of patients with cancer from Otorhinolaryngology and Head and Neck services of an oncology institution. The system was evaluated with a sample composed of 3013 patients. The results achieved show that there are variables that may be significant predictors for the Quality of Life of the patient: years of smoking (p value 0.049) and size of the tumor (p value < 0.001). In order to assign the variables to the classification of the quality of life the best accuracy was obtained by applying the John Platt's sequential minimal optimization algorithm for training a support vector classifier. In conclusion data mining techniques allow having access to patients additional information helping the physicians to be able to know the quality of life and produce a well-informed clinical decision.
Resumo:
A síncope neurocardiogénica (SNc) é uma entidade clínica comum, resultante de uma resposta autonómica reflexa excessiva durante o stress ortostático. As diferentes opções terapêuticas são controversas e de eficácia limitada. O treino de ortostatismo (TTr) tem-se mostrado uma alternativa prometedora no tratamento destes doentes (D). No entanto, permanece por esclarecer o seu mecanismo de acção e o impacto clínico numa população com SNc recorrente. Objectivo: Caracterizar a resposta hemodinâmica e autonómica durante um programa de TTr em doentes com SNc refratária às medidas convencionais. População e métodos: Foram estudados 28D (50% do sexo masculino, 41±14 anos), sem evidência de cardiopatia, com SNc documentada em teste de ortostatismo passivo. O TTr incluiu 9 sessões hospitalares (3x/semana, 30 minutos) com monitorizac¸ão contínua de pressão arterial e frequência cardíaca (60◦ - 6 sessões - 70◦ - 3 sessões), complementadas com treino diário no domicílio e elevação da cabeceira a 10◦ durante o sono. O volume sistólico, o débito cardíaco, a resistência vascular periférica, a sensibilidade do barorreflexo e a variabilidade da frequência cardíaca foram calculados. Todos os doentes foram reavaliados no fim do 1.◦ mês e no final de cada 6 meses num período máximo de 36 meses (follow-up 24±12 meses). Resultados: Ao longo das sessões de TTr verificou-se um aumento significativo e consistente da resistência total periférica (1485±225 vs. 1591±187 dyne*s/cm−5, p < 0,05) associado a uma diminuição do seu desvio-padrão (206±60 vs. 150±42, p < 0,05). Durante o período de follow-up, houve recorrência de síncope em 5D (19%), com redução significativa do número de síncopes (4,0±3,2/D nos 12 meses pre-TTr vs. 1,4±0,8/D pos-TTr, p < 0,05). Conclusão: Em doentes com SNc refratária, o TTr mostrou ser uma opção terapêutica eficaz, com benefício a longo prazo. A melhor tolerância ao ortostatismo parece resultar do aumento da reserva vasoconstritora e da sua menor variabilidade.
Resumo:
This paper addresses the challenging task of computing multiple roots of a system of nonlinear equations. A repulsion algorithm that invokes the Nelder-Mead (N-M) local search method and uses a penalty-type merit function based on the error function, known as 'erf', is presented. In the N-M algorithm context, different strategies are proposed to enhance the quality of the solutions and improve the overall efficiency. The main goal of this paper is to use a two-level factorial design of experiments to analyze the statistical significance of the observed differences in selected performance criteria produced when testing different strategies in the N-M based repulsion algorithm. The main goal of this paper is to use a two-level factorial design of experiments to analyze the statistical significance of the observed differences in selected performance criteria produced when testing different strategies in the N-M based repulsion algorithm.
Resumo:
There is a positive relationship between learning music and academic achievement, although doubts remain regarding the mechanisms underlying this association. This research analyses the academic performance of music and non-music students from seventh to ninth grade. The study controls for socioeconomic status, intelligence, motivation and prior academic achievement. Data were collected from 110 adolescents at two time points, once when the students were between 11 and 14 years old in the seventh grade, and again 3 years later. Our results show that music students perform better academically than non-music students in the seventh grade (Cohen’s d = 0.88) and in the ninth grade (Cohen’s d = 1.05). This difference is particularly evident in their scores in Portuguese language and natural science; the difference is somewhat weaker in history and geography scores, and is least pronounced in mathematics and English scores (η2 p from .09 to .21). A longitudinal analysis also revealed better academic performance by music students after controlling for prior academic achievement (η2 p = .07). Furthermore, controlling for intelligence, socioeconomic status and motivation did not eliminate the positive association between music learning from the seventh to the ninth grade and students’ academic achievement (η2 p = .06). During the period, music students maintained better and more consistent academic standing. We conclude that, after controlling for intelligence, socioeconomic status and motivation, music training is positively associated with academic achievement.
Resumo:
ABSTRACT This study was conducted to assess mental health knowledge, attitude and practices among health care workers in Belize before and immediately after a competency based training program in mental health. A baseline Knowledge, Attitudes and Practices (KAP) survey was given to health personnel, mainly nurses, working primary and secondary care. The intervention was a 13-week face-to-face training course for health care professionals with the objective of increasing their competency in mental health and reducing stigma. After the training a post intervention KAP survey was conducted among the original respondents. 88 health care workers completed the baseline survey and 61 of those respondents completed the post-intervention questionnaire. The results showed that the level of knowledge of the participants had improved by the training intervention and that in general, the intervention was effective in correcting some misconceptions about mental illness and reducing stigmatizing attitudes among the participants.
Resumo:
BACKGROUND: The detection of psychosocial distress is a significant communication problem in Southern Europe and other countries. Work in this area is hampered by a lack of data. Because not much is known about training aimed at improving the recognition of psychosocial disorders in cancer patients, we developed a basic course model for medical oncology professionals. METHODS: A specific educational and experiential model (12 hours divided into 2 modules) involving formal teaching (ie, journal articles, large-group presentations), practice in small groups (ie, small-group exercises and role playing), and discussion in large groups was developed with the aim of improving the ability of oncologists to detect emotional disturbances in cancer patients (ie, depression, anxiety, and adjustment disorders). RESULTS: A total of 30 oncologists from 3 Southern European countries (Italy, Portugal, and Spain) participated in the workshop. The training course was well accepted by most participants who expressed general satisfaction and a positive subjective perception of the utility of the course for clinical practice. Of the total participants, 28 physicians (93.3%) thought that had they been exposed to this material sooner, they would have incorporated the techniques received in the workshop into their practices; 2 participants stated they would likely have done so. Half of the doctors (n = 15) believed that their clinical communication techniques were improved by participating in the workshop, and the remaining half thought that their abilities to communicate with cancer patients had improved. CONCLUSIONS: This model is a feasible approach for oncologists and is easily applicable to various oncology settings. Further studies will demonstrate the effectiveness of this method for improving oncologists skills in recognizing emotional disorders in their patients with cancer.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Biomédica
Resumo:
Nos dias de hoje, os sistemas de tempo real crescem em importância e complexidade. Mediante a passagem do ambiente uniprocessador para multiprocessador, o trabalho realizado no primeiro não é completamente aplicável no segundo, dado que o nível de complexidade difere, principalmente devido à existência de múltiplos processadores no sistema. Cedo percebeu-se, que a complexidade do problema não cresce linearmente com a adição destes. Na verdade, esta complexidade apresenta-se como uma barreira ao avanço científico nesta área que, para já, se mantém desconhecida, e isto testemunha-se, essencialmente no caso de escalonamento de tarefas. A passagem para este novo ambiente, quer se trate de sistemas de tempo real ou não, promete gerar a oportunidade de realizar trabalho que no primeiro caso nunca seria possível, criando assim, novas garantias de desempenho, menos gastos monetários e menores consumos de energia. Este último fator, apresentou-se desde cedo, como, talvez, a maior barreira de desenvolvimento de novos processadores na área uniprocessador, dado que, à medida que novos eram lançados para o mercado, ao mesmo tempo que ofereciam maior performance, foram levando ao conhecimento de um limite de geração de calor que obrigou ao surgimento da área multiprocessador. No futuro, espera-se que o número de processadores num determinado chip venha a aumentar, e como é óbvio, novas técnicas de exploração das suas inerentes vantagens têm de ser desenvolvidas, e a área relacionada com os algoritmos de escalonamento não é exceção. Ao longo dos anos, diferentes categorias de algoritmos multiprocessador para dar resposta a este problema têm vindo a ser desenvolvidos, destacando-se principalmente estes: globais, particionados e semi-particionados. A perspectiva global, supõe a existência de uma fila global que é acessível por todos os processadores disponíveis. Este fato torna disponível a migração de tarefas, isto é, é possível parar a execução de uma tarefa e resumir a sua execução num processador distinto. Num dado instante, num grupo de tarefas, m, as tarefas de maior prioridade são selecionadas para execução. Este tipo promete limites de utilização altos, a custo elevado de preempções/migrações de tarefas. Em contraste, os algoritmos particionados, colocam as tarefas em partições, e estas, são atribuídas a um dos processadores disponíveis, isto é, para cada processador, é atribuída uma partição. Por essa razão, a migração de tarefas não é possível, acabando por fazer com que o limite de utilização não seja tão alto quando comparado com o caso anterior, mas o número de preempções de tarefas decresce significativamente. O esquema semi-particionado, é uma resposta de caráter hibrido entre os casos anteriores, pois existem tarefas que são particionadas, para serem executadas exclusivamente por um grupo de processadores, e outras que são atribuídas a apenas um processador. Com isto, resulta uma solução que é capaz de distribuir o trabalho a ser realizado de uma forma mais eficiente e balanceada. Infelizmente, para todos estes casos, existe uma discrepância entre a teoria e a prática, pois acaba-se por se assumir conceitos que não são aplicáveis na vida real. Para dar resposta a este problema, é necessário implementar estes algoritmos de escalonamento em sistemas operativos reais e averiguar a sua aplicabilidade, para caso isso não aconteça, as alterações necessárias sejam feitas, quer a nível teórico quer a nível prá
Resumo:
Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.
Resumo:
Neurocardiogenic syncope (NCS) is a common clinical entity resulting from an excessive reflex autonomic response, particularly during orthostatism. Treatment options are controversial and of limited effectiveness. Tilt training (TT) is a promising option to treat these patients. However, its mechanism of action and clinical impact remain unclear. OBJECTIVE: To characterize hemodynamic and autonomic responses during a TT program in patients with NCS refractory to conventional measures. METHODS: We studied 28 patients (50% male, mean age 41±14 years) without structural heart disease, with NCS documented by tilt testing. The TT program included 9 tilt sessions (3 times a week, 30 min) (60° - 6 sessions, 70° - 3 sessions), under ECG and blood pressure monitoring combined with home orthostatic self-training and 10° head-up during sleep. Systolic volume, cardiac output, total peripheral resistance, baroreflex sensitivity and heart-rate variability were computed. Patients were reassessed at 1 month and every 6 months for a maximum of 36 months (24±12 months). RESULTS: Over the course of the TT program there was a significant increase in total peripheral resistance (1485±225 vs. 1591±187 dyn·s·cm(-5), p<0.05), with a decrease in standard deviation (206±60 vs. 150±42, p<0.05). During follow-up, syncope recurred in five patients (19%), with a significant reduction in the number of episodes (4.0±3.2/patient in the 12 months before TT vs. 1.4±0.8/patient post-TT, p<0.05). CONCLUSION: In refractory NCS, TT may be an effective therapeutic option, with long-term benefits. These results appear to be due to an increase in vasoconstrictor reserve combined with a reduction in its variance.
Resumo:
The exponential increase in clinical research has profoundly changed medical sciences. Evidence that has accumulated in the past three decades from clinical trials has led to the proposal that clinical care should not be based solely on clinical expertise and patient values, and should integrate robust data from systematic research. As a consequence, clinical research has become more complex and methods have become more rigorous, and evidence is usually not easily translated into clinical practice. Therefore, the instruction of clinical research methods for scientists and clinicians must adapt to this new reality. To address this challenge, a global distance-learning clinical research-training program was developed, based on collaborative learning, the pedagogical goal of which was to develop critical thinking skills in clinical research. We describe and analyze the challenges and possible solutions of this course after 5 years of experience (2008-2012) with this program. Through evaluation by students and faculty, we identified and reviewed the following challenges of our program: 1) student engagement and motivation, 2) impact of heterogeneous audience on learning, 3) learning in large groups, 4) enhancing group learning, 5) enhancing social presence, 6) dropouts, 7) quality control, and 8) course management. We discuss these issues and potential alternatives with regard to our research and background.