984 resultados para Meta-heuristics algorithms
Resumo:
Distributed data aggregation is an important task, allowing the de- centralized determination of meaningful global properties, that can then be used to direct the execution of other applications. The resulting val- ues result from the distributed computation of functions like count, sum and average. Some application examples can found to determine the network size, total storage capacity, average load, majorities and many others. In the last decade, many di erent approaches have been pro- posed, with di erent trade-o s in terms of accuracy, reliability, message and time complexity. Due to the considerable amount and variety of ag- gregation algorithms, it can be di cult and time consuming to determine which techniques will be more appropriate to use in speci c settings, jus- tifying the existence of a survey to aid in this task. This work reviews the state of the art on distributed data aggregation algorithms, providing three main contributions. First, it formally de nes the concept of aggrega- tion, characterizing the di erent types of aggregation functions. Second, it succinctly describes the main aggregation techniques, organizing them in a taxonomy. Finally, it provides some guidelines toward the selection and use of the most relevant techniques, summarizing their principal characteristics.
Resumo:
The decision support models in intensive care units are developed to support medical staff in their decision making process. However, the optimization of these models is particularly difficult to apply due to dynamic, complex and multidisciplinary nature. Thus, there is a constant research and development of new algorithms capable of extracting knowledge from large volumes of data, in order to obtain better predictive results than the current algorithms. To test the optimization techniques a case study with real data provided by INTCare project was explored. This data is concerning to extubation cases. In this dataset, several models like Evolutionary Fuzzy Rule Learning, Lazy Learning, Decision Trees and many others were analysed in order to detect early extubation. The hydrids Decision Trees Genetic Algorithm, Supervised Classifier System and KNNAdaptive obtained the most accurate rate 93.2%, 93.1%, 92.97% respectively, thus showing their feasibility to work in a real environment.
Resumo:
OBJETIVO: Avaliar o percentual de pacientes adequados às metas preconizadas pelas III Diretrizes sobre Dislipidemias da Sociedade Brasileira de Cardiologia, numa população de baixa renda. Determinar se havia diferença deste percentual, nos pacientes de alto risco, conforme a idade (<75 anos x >75 anos). MÉTODOS: Analisamos consecutivamente 190 pacientes, divididos em dois grupos: 51 pacientes de baixo e médio risco (G I) e 139 de alto risco para doença arterial coronariana (G II). A amostra era caracterizada por pacientes de baixa renda (69% dos pacientes tinham uma renda familiar entre 1 e 2 salários mínimos), cuja terapêutica hipolipemiante era fornecida irregularmente pelo Estado. RESULTADOS: Os G I e G II apresentavam, respectivamente, 70,1±13,7 anos e 13,7% de homens e 68,5±10,6 anos e 62,6% de homens. Dentre os pacientes do G II, 30% apresentavam o LDL-colesterol dentro das metas preconizadas. Sendo que, a freqüência de pacientes adequados às metas foi, significativamente, menor em indivíduos com 75 anos ou mais que aqueles com menos de 75 anos (16% vs. 30%, p=0,04). CONCLUSÃO: Numa população, predominantemente, de baixa renda e sem assistência contínua do Estado para adquirir estatinas, a obtenção das metas preconizadas para o LDL- colesterol, pelas III Diretrizes sobre Dislipidemias da Sociedade Brasileira de Cardiologia, é baixa e ainda, significativamente, menor em pacientes muito idosos, com perfil de alto risco para aterosclerose.
Resumo:
En este proyecto se desarrollarán algoritmos numéricos para sistemas no lineales hiperbólicos-parabólicos de ecuaciones diferenciales en derivadas parciales. Dichos sistemas tienen aplicación en propagación de ondas en ámbitos aeroespaciales y astrofísicos.Objetivos generales: 1)Desarrollo y mejora de algoritmos numéricos con la finalidad de incrementar la calidad en la simulación de propagación e interacción de ondas gasdinámicas y magnetogasdinámicas no lineales. 2)Desarrollo de códigos computacionales con la finalidad de simular flujos gasdinámicos de elevada entalpía incluyendo cambios químicos, efectos dispersivos y difusivos.3)Desarrollo de códigos computacionales con la finalidad de simular flujos magnetogasdinámicos ideales y reales.4)Aplicación de los nuevos algoritmos y códigos computacionales a la solución del flujo aerotermodinámico alrededor de cuerpos que ingresan en la atmósfera terrestre. 5)Aplicación de los nuevos algoritmos y códigos computacionales a la simulación del comportamiento dinámico no lineal de arcos magnéticos en la corona solar. 6)Desarrollo de nuevos modelos para describir el comportamiento no lineal de arcos magnéticos en la corona solar.Este proyecto presenta como objetivo principal la introducción de mejoras en algoritmos numéricos para simular la propagación e interacción de ondas no lineales en dos medios gaseosos: aquellos que no poseen carga eléctrica libre (flujos gasdinámicos) y aquellos que tienen carga eléctrica libre (flujos magnetogasdinámicos). Al mismo tiempo se desarrollarán códigos computacionales que implementen las mejoras de las técnicas numéricas.Los algoritmos numéricos se aplicarán con la finalidad de incrementar el conocimiento en tópicos de interés en la ingeniería aeroespacial como es el cálculo del flujo de calor y fuerzas aerotermodinámicas que soportan objetos que ingresan a la atmósfera terrestre y en temas de astrofísica como la propagación e interacción de ondas, tanto para la transferencia de energía como para la generación de inestabilidades en arcos magnéticos de la corona solar. Estos dos temas poseen en común las técnicas y algoritmos numéricos con los que serán tratados. Las ecuaciones gasdinámicas y magnetogasdinámicas ideales conforman sistemas hiperbólicos de ecuaciones diferenciales y pueden ser solucionados utilizando "Riemann solvers" junto con el método de volúmenes finitos (Toro 1999; Udrea 1999; LeVeque 1992 y 2005). La inclusión de efectos difusivos genera que los sistemas de ecuaciones resulten hiperbólicos-parabólicos. La contribución parabólica puede ser considerada como términos fuentes y tratada adicionalmente tanto en forma explícita como implícita (Udrea 1999; LeVeque 2005).Para analizar el flujo alrededor de cuerpos que ingresan en la atmósfera se utilizarán las ecuaciones de Navier-Stokes químicamente activas, mientras la temperatura no supere los 6000K. Para mayores temperaturas es necesario considerar efectos de ionización (Anderson, 1989). Tanto los efectos difusivos como los cambios químicos serán considerados como términos fuentes en las ecuaciones de Euler. Para tratar la propagación de ondas, transferencia de energía e inestabilidades en arcos magnéticos de la corona solar se utilizarán las ecuaciones de la magnetogasdinámica ideal y real. En este caso será también conveniente implementar términos fuente para el tratamiento de fenómenos de transporte como el flujo de calor y el de radiación. Los códigos utilizarán la técnica de volúmenes finitos, junto con esquemas "Total Variation Disminishing - TVD" sobre mallas estructuradas y no estructuradas.
Resumo:
En nuestro proyecto anterior aproximamos el cálculo de una integral definida con integrandos de grandes variaciones funcionales. Nuestra aproximación paraleliza el algoritmo de cómputo de un método adaptivo de cuadratura, basado en reglas de Newton-Cote. Los primeros resultados obtenidos fueron comunicados en distintos congresos nacionales e internacionales; ellos nos permintieron comenzar con una tipificación de las reglas de cuadratura existentes y una clasificación de algunas funciones utilizadas como funciones de prueba. Estas tareas de clasificación y tipificación no las hemos finalizado, por lo que pretendemos darle continuidad a fin de poder informar sobre la conveniencia o no de utilizar nuestra técnica. Para llevar adelante esta tarea se buscará una base de funciones de prueba y se ampliará el espectro de reglas de cuadraturas a utilizar. Además, nos proponemos re-estructurar el cálculo de algunas rutinas que intervienen en el cómputo de la mínima energía de una molécula. Este programa ya existe en su versión secuencial y está modelizado utilizando la aproximación LCAO. El mismo obtiene resultados exitosos en cuanto a precisión, comparado con otras publicaciones internacionales similares, pero requiere de un tiempo de cálculo significativamente alto. Nuestra propuesta es paralelizar el algoritmo mencionado abordándolo al menos en dos niveles: 1- decidir si conviene distribuir el cálculo de una integral entre varios procesadores o si será mejor distribuir distintas integrales entre diferentes procesadores. Debemos recordar que en los entornos de arquitecturas paralelas basadas en redes (típicamente redes de área local, LAN) el tiempo que ocupa el envío de mensajes entre los procesadores es muy significativo medido en cantidad de operaciones de cálculo que un procesador puede completar. 2- de ser necesario, paralelizar el cálculo de integrales dobles y/o triples. Para el desarrollo de nuestra propuesta se desarrollarán heurísticas para verificar y construir modelos en los casos mencionados tendientes a mejorar las rutinas de cálculo ya conocidas. A la vez que se testearán los algoritmos con casos de prueba. La metodología a utilizar es la habitual en Cálculo Numérico. Con cada propuesta se requiere: a) Implementar un algoritmo de cálculo tratando de lograr versiones superadoras de las ya existentes. b) Realizar los ejercicios de comparación con las rutinas existentes para confirmar o desechar una mejor perfomance numérica. c) Realizar estudios teóricos de error vinculados al método y a la implementación. Se conformó un equipo interdisciplinario integrado por investigadores tanto de Ciencias de la Computación como de Matemática. Metas a alcanzar Se espera obtener una caracterización de las reglas de cuadratura según su efectividad, con funciones de comportamiento oscilatorio y con decaimiento exponencial, y desarrollar implementaciones computacionales adecuadas, optimizadas y basadas en arquitecturas paralelas.
Resumo:
As revisões sistemáticas com meta-análise de estudos de exames diagnósticos ou de fatores prognósticos são ferramentas de pesquisa ainda em fase de desenvolvimento. O objetivo do presente texto é descrever a metodologia de revisão sistemática e de meta-análise deste tipo de estudos, passo a passo. Foi feita a revisão da literatura sobre o tema, compilando as recomendações e organizando o texto em: a) Introdução, b) Setalhamento dos oito passos a serem seguidos, c) Forma de publicação da revisão sistemática com meta-análise e d) Conclusão. Foram descritos os métodos de revisão sistemática de forma detalhada, com análise crítica dos métodos de compilação estatística dos resultados, com ênfase na utilização da curva Summary Receiver Operator Characteristic. Forneceu-se referência para os detalhes de cada técnica estatística utilizada na meta-análise. Concluímos que as revisões sistemáticas com meta-análise de exames diagnósticos ou de fatores prognósticos são valiosas na compilação de dados de vários estudos sobre o mesmo tema, reduzindo vieses e aumentando o poder estatístico da pesquisa primária.
Resumo:
n el desarrollo contemporáneo de propuestas normativas de democracia es posible identificar una recuperación de la dimensión territorial de los procesos sociopolíticos, un redescubrimiento de lo local dado por el interés de explicar y proponer soluciones a los nuevos desafíos que la inequidad, las crisis del régimen de acumulación y las crisis en los modos de coordinación social presentan a las sociedades contemporáneas. En este contexto lo local no sólo adquiere un nuevo protagonismo en relación a las preocupaciones concernientes al desarrollo sostenible, sino también como ámbito que por cuestiones de “proximidad” constituye el espacio “natural” para la realización de la democracia. La relación estado y sociedad, las posibilidades de hacer efectiva la participación y de generar condiciones que hacen factible el control del poder político por parte de los ciudadanos parecieran encontrar en lo local mejores condiciones de realización. Sin embargo y a pesar de los avances descriptos, son escasos los intentos por profundizar la especificidad de la democracia local que aborden y articulen reflexiones teórico-conceptuales que permitan identificar principios normativos básicos contrastables empíricamente con las instituciones y prácticas locales concretas. Las bondades de la democracia local son por lo general dadas por sentadas, sin problematizar sus particularidades, su relación con una teoría general de la democracia, su relación con el territorio a diferentes escalas y sus manifestaciones en instituciones y prácticas de los actores sociales. Desde el proyecto se sostiene que a partir de la reconstrucción y problematización de los orígenes filosóficos conceptuales que sustentan la Teoría de la Democracia Local es posible identificar un marco teórico normativo que le es específico y que posibilita el reconocimiento de los meta-requisitos necesarios tanto para su realización como para su contribución al fortalecimiento del régimen democrático en general. El establecimiento de estos requisitos permitirá construir matrices analíticas para el estudio empírico de los diseños y prácticas institucionales, como así también los procesos de constitución, reproducción y contestación de tales arreglos y prácticas por parte de los actores sociales. El proyecto se propone diseñar matrices analíticas que permitan articular distintos niveles y dimensiones de análisis de la Democracia Local que sean aplicables al estudio de casos de ciudades de porte medio de América Latina.
Resumo:
As digital imaging processing techniques become increasingly used in a broad range of consumer applications, the critical need to evaluate algorithm performance has become recognised by developers as an area of vital importance. With digital image processing algorithms now playing a greater role in security and protection applications, it is of crucial importance that we are able to empirically study their performance. Apart from the field of biometrics little emphasis has been put on algorithm performance evaluation until now and where evaluation has taken place, it has been carried out in a somewhat cumbersome and unsystematic fashion, without any standardised approach. This paper presents a comprehensive testing methodology and framework aimed towards automating the evaluation of image processing algorithms. Ultimately, the test framework aims to shorten the algorithm development life cycle by helping to identify algorithm performance problems quickly and more efficiently.
Resumo:
FUNDAMENTO: Ultrassom Intracoronariano (USIC) tem sido usado como um método auxiliar a fim de otimizar o implante de stents. No entanto, o impacto desse método em alguns resultados é controverso. OBJETIVO: Analisar sistematicamente o impacto dos stents coronarianos guiados por USIC, em comparação com os stents guiados angiograficamente, sobre os resultados clínicos e angiográficos. MÉTODOS: Foi realizada uma busca em bases de dados (MEDLINE, Cochrane CENTRAL, EMBASE) e referências de estudos publicados entre 1982 e 2010. Foram incluídos Ensaios Clínicos Randomizados (ECR) que compararam o implante de stents coronarianos guiados por angiografia e USIC versus implante de stents coronarianos guiados apenas por angiografia (ANGIO). O seguimento mínimo foi de seis meses e os resultados avaliados foram eventos cardíacos adversos importantes (MACE), Revascularização da Lesão-alvo (RLA) e reestenose angiográfica. Dois revisores extraíram os dados de forma independente. Razão de risco sumário e intervalos de confiança de 95% (CI) foram calculados com modelos com efeitos aleatórios. A abordagem GRADE foi utilizada para determinar a qualidade geral de evidências para cada resultado. RESULTADOS: Dos 3.631 artigos identificados, oito ECR avaliando um total de 2.341 pacientes foram incluídos. Houve uma redução de 27% na reestenose angiográfica (95% IC: 3% -46%) e uma redução de 38% em RLA (95% IC: 17% -53%) em favor de USIC versus ANGIO. No entanto, os MACE não foram reduzidos por USIC (RR: 0,79; 95%CI: 0,61-1,03). Os dados MACE representam apenas 47% do tamanho ótimo de informações necessárias para detectar com segurança um efeito de tratamento plausível. CONCLUSÕES: Observamos que o implante de stent coronariano guiado por USIC oferece reduções significativas em RLA e reestenose angiográfica em comparação com implante de stent guiado por angiografia, porém não reduz casos de MACE.
Resumo:
FUNDAMENTO: Apesar da evolução tecnológica do cardiodesfibrilador implantável, uma das questões que permanece em aberto é sobre o eventual benefício do cardiodesfibrilador implantável de dupla câmara comparativamente ao de câmara única, para diminuir os choques inapropriados. OBJETIVO: Avaliar, em pacientes com cardiodesfibrilador implantável, qual é o tipo de dispositivo que proporciona menor número de choques inapropriados (câmara dupla versus câmara única). MÉTODOS: Meta-análise da literatura publicada, de estudos randomizados, comparando cardiodesfibrilador implantável de câmara dupla ao de câmara única, que tenham, como endpoint avaliado, a ocorrência de choques inapropriados. RESULTADOS: O cardiodesfibrilador implantável de câmara dupla não mostrou benefícios na redução do número de pacientes com choques inapropriados. Pelo contrário, na análise de efeitos fixos, a associação foi tendencialmente favorável ao cardiodesfibrilador implantável de câmara única (OR = 1,53; IC95%: 0,91-2,57), não obstante a ausência de significado estatístico (p = 0,11). Merece destaque a heterogenia observada nos resultados (I2 = 53%), o que motivou a replicação da análise utilizando um modelo de efeitos aleatórios. No entanto, as diferenças significativas permaneceram na ocorrência de choques inapropriados em ambos os grupos (OR = 1,1; IC95%: 0,37-3,31; p = 0,86). Para complementar a análise, procedeu-se à análise de sensibilidade, na qual se verificou que a exclusão de um estudo resultava na mais baixa heterogenia observada (I2=24%) e na associação com os choques inapropriados significativamente favorável ao cardiodesfibrilador de câmara única (OR = 1,91; IC95%: 1,09-3,37; p = 0,27). CONCLUSÕES: Verificou-se a não existência de evidência clara de superioridade de qualquer um dos dispositivos avaliados.
Resumo:
Fundamento: Pressão arterial elevada é o principal fator de risco para doenças cardiovasculares. Baixos índices de controle da pressão arterial em populações latino-americanas reforçam a necessidade de reunir evidências sobre terapias eficazes. Objetivo: Avaliar o efeito das intervenções de modificações de dietas sobre pressão arterial em populações latino-americanas. Métodos: Revisão sistemática. Foram pesquisadas diversas bases de dados (MEDLINE-PubMed, Embase, Cochrane Library, CINAHL, Web of Science, Scopus, SciELO, LILACS e BVS) e realizada busca manual até abril de 2013. Foram incluídos estudos paralelos de intervenções em dieta em populações adultas da América Latina reportando pressão arterial (em mmHg) antes e após a intervenção. Resultados: Dos 405 estudos encontrados, 10 ensaios clínicos randomizados foram incluídos e divididos em 3 subgrupos, de acordo com a dieta proposta como intervenção. Houve redução não significativa da pressão arterial sistólica nos subgrupos de substituição mineral -4,82 (IC 95%: -11,36 a 1,73 mmHg) e padrões complexos -3,17 (IC 95%: -7,62 a 1,28 mmHg). Para a pressão arterial diastólica, com exceção do subgrupo de dietas hiperproteicas, todos os subgrupos apresentaram redução significativa, com -4,66 (IC 95%: -9,21 a -0,12 mmHg) e -4,55 (IC 95%: -7,04 a -2,06 mmHg) para substituição mineral e padrões complexos, respectivamente. Conclusão: A evidência disponível sobre os efeitos de alterações de dieta na pressão arterial em populações latino-americanas indica um efeito homogêneo, porém não significativo, para pressão arterial sistólica. Estudos maiores e com maior rigor metodológico são necessários para construção de evidência robusta.
Resumo:
The use of yoga as an effective cardiac rehabilitation in patients with chronic heart failure (CHF) remains controversial. We performed a meta-analysis to examine the effects of yoga on exercise capacity and health-related quality of life (HRQOL) in patients with CHF. Methods: We searched MEDLINE, Cochrane Central Register of Controlled Trials, Excerpta Medica database, LILACS, Physiotherapy Evidence Database, The Scientific Electronic Library Online, and Cumulative Index to Nursing and Allied Health (from the earliest date available to December 2013) for randomized controlled trials (RCTs) examining the effects of yoga versus exercise and/or of yoga versus control on exercise capacity (peakVO2) and quality-of-life (HRQOL) in CHF. Two reviewers selected studies independently. Weighted mean differences (WMDs) and 95% confidence intervals (CIs) were calculated, and heterogeneity was assessed using the I2 test. Two studies met the selection criteria (total: 30 yoga and 29 control patients). The results suggested that yoga compared with control had a positive impact on peak VO2 and HRQOL. Peak VO2, WMD (3.87 95% CI: 1.95 to 5.80), and global HRQOL standardized mean differences (-12.46 95% CI: -22.49 to -2.43) improved in the yoga group compared to the control group. Yoga enhances peak VO2 and HRQOL in patients with CHF and could be considered for inclusion in cardiac rehabilitation programs. Larger RCTs are required to further investigate the effects of yoga in patients with CHF.
Resumo:
Background:Several studies have been attempting to ascertain the risks of Sleep Apnea Syndrome (SAS) and its morbidity and mortality.Objective:The main objective was to verify whether SAS increases the risk of death; the secondary objective was to evaluate its morbidity in relation to cardiovascular disease and the number of days hospitalized.Methods:A systematic review and a meta-analysis were performed of the published literature. The research focused on studies comparing the number of deaths in patients with untreated SAS and in patients with non-SAS.Results:The meta-analysis was based on 13 articles, corresponding to a total of 13394 participants divided into two groups (non-SAS = 6631; SAS = 6763). The meta-analysis revealed a clear association of SAS with the occurrence of fatal events, where the presence of SAS corresponded to a 61% higher risk of total mortality (OR=1.61; CI: 1.43 - 1.81; p < 0.00001), while the risk of death from cardiac causes was 2.52 times higher in these patients (OR = 2.52; IC: 1.80 - 3.52; p < 0.00001). Similar results were obtained for mortality from other causes (OR = 1.68; CI: 1.08 - 2.61; p = 0.02). Resembling results were obtained in the remaining outcomes: non-fatal cardiovascular events were higher in the SAS group (OR = 2.46; IC: 1.80 - 3.36; p < 0.00001), the average number of days hospitalized was also higher in the SAS group (IV = 18.09; IC: 13.34 - 22.84; p < 0.00001).Conclusion:The results show that untreated SAS significantly increases the risk of death, cardiovascular events and the average number of days hospitalized.