870 resultados para Algoritmos e Meta-heurísticas
Resumo:
Tese de Doutoramento em Engenharia Industrial e de Sistemas (PDEIS)
Resumo:
Dissertação de mestrado integrado em Engenharia e Gestão de Sistemas de Informação
Resumo:
Dissertação de mestrado integrado em Engenharia Civil
Resumo:
OBJETIVO: Avaliar o percentual de pacientes adequados às metas preconizadas pelas III Diretrizes sobre Dislipidemias da Sociedade Brasileira de Cardiologia, numa população de baixa renda. Determinar se havia diferença deste percentual, nos pacientes de alto risco, conforme a idade (<75 anos x >75 anos). MÉTODOS: Analisamos consecutivamente 190 pacientes, divididos em dois grupos: 51 pacientes de baixo e médio risco (G I) e 139 de alto risco para doença arterial coronariana (G II). A amostra era caracterizada por pacientes de baixa renda (69% dos pacientes tinham uma renda familiar entre 1 e 2 salários mínimos), cuja terapêutica hipolipemiante era fornecida irregularmente pelo Estado. RESULTADOS: Os G I e G II apresentavam, respectivamente, 70,1±13,7 anos e 13,7% de homens e 68,5±10,6 anos e 62,6% de homens. Dentre os pacientes do G II, 30% apresentavam o LDL-colesterol dentro das metas preconizadas. Sendo que, a freqüência de pacientes adequados às metas foi, significativamente, menor em indivíduos com 75 anos ou mais que aqueles com menos de 75 anos (16% vs. 30%, p=0,04). CONCLUSÃO: Numa população, predominantemente, de baixa renda e sem assistência contínua do Estado para adquirir estatinas, a obtenção das metas preconizadas para o LDL- colesterol, pelas III Diretrizes sobre Dislipidemias da Sociedade Brasileira de Cardiologia, é baixa e ainda, significativamente, menor em pacientes muito idosos, com perfil de alto risco para aterosclerose.
Resumo:
En este proyecto se desarrollarán algoritmos numéricos para sistemas no lineales hiperbólicos-parabólicos de ecuaciones diferenciales en derivadas parciales. Dichos sistemas tienen aplicación en propagación de ondas en ámbitos aeroespaciales y astrofísicos.Objetivos generales: 1)Desarrollo y mejora de algoritmos numéricos con la finalidad de incrementar la calidad en la simulación de propagación e interacción de ondas gasdinámicas y magnetogasdinámicas no lineales. 2)Desarrollo de códigos computacionales con la finalidad de simular flujos gasdinámicos de elevada entalpía incluyendo cambios químicos, efectos dispersivos y difusivos.3)Desarrollo de códigos computacionales con la finalidad de simular flujos magnetogasdinámicos ideales y reales.4)Aplicación de los nuevos algoritmos y códigos computacionales a la solución del flujo aerotermodinámico alrededor de cuerpos que ingresan en la atmósfera terrestre. 5)Aplicación de los nuevos algoritmos y códigos computacionales a la simulación del comportamiento dinámico no lineal de arcos magnéticos en la corona solar. 6)Desarrollo de nuevos modelos para describir el comportamiento no lineal de arcos magnéticos en la corona solar.Este proyecto presenta como objetivo principal la introducción de mejoras en algoritmos numéricos para simular la propagación e interacción de ondas no lineales en dos medios gaseosos: aquellos que no poseen carga eléctrica libre (flujos gasdinámicos) y aquellos que tienen carga eléctrica libre (flujos magnetogasdinámicos). Al mismo tiempo se desarrollarán códigos computacionales que implementen las mejoras de las técnicas numéricas.Los algoritmos numéricos se aplicarán con la finalidad de incrementar el conocimiento en tópicos de interés en la ingeniería aeroespacial como es el cálculo del flujo de calor y fuerzas aerotermodinámicas que soportan objetos que ingresan a la atmósfera terrestre y en temas de astrofísica como la propagación e interacción de ondas, tanto para la transferencia de energía como para la generación de inestabilidades en arcos magnéticos de la corona solar. Estos dos temas poseen en común las técnicas y algoritmos numéricos con los que serán tratados. Las ecuaciones gasdinámicas y magnetogasdinámicas ideales conforman sistemas hiperbólicos de ecuaciones diferenciales y pueden ser solucionados utilizando "Riemann solvers" junto con el método de volúmenes finitos (Toro 1999; Udrea 1999; LeVeque 1992 y 2005). La inclusión de efectos difusivos genera que los sistemas de ecuaciones resulten hiperbólicos-parabólicos. La contribución parabólica puede ser considerada como términos fuentes y tratada adicionalmente tanto en forma explícita como implícita (Udrea 1999; LeVeque 2005).Para analizar el flujo alrededor de cuerpos que ingresan en la atmósfera se utilizarán las ecuaciones de Navier-Stokes químicamente activas, mientras la temperatura no supere los 6000K. Para mayores temperaturas es necesario considerar efectos de ionización (Anderson, 1989). Tanto los efectos difusivos como los cambios químicos serán considerados como términos fuentes en las ecuaciones de Euler. Para tratar la propagación de ondas, transferencia de energía e inestabilidades en arcos magnéticos de la corona solar se utilizarán las ecuaciones de la magnetogasdinámica ideal y real. En este caso será también conveniente implementar términos fuente para el tratamiento de fenómenos de transporte como el flujo de calor y el de radiación. Los códigos utilizarán la técnica de volúmenes finitos, junto con esquemas "Total Variation Disminishing - TVD" sobre mallas estructuradas y no estructuradas.
Resumo:
As revisões sistemáticas com meta-análise de estudos de exames diagnósticos ou de fatores prognósticos são ferramentas de pesquisa ainda em fase de desenvolvimento. O objetivo do presente texto é descrever a metodologia de revisão sistemática e de meta-análise deste tipo de estudos, passo a passo. Foi feita a revisão da literatura sobre o tema, compilando as recomendações e organizando o texto em: a) Introdução, b) Setalhamento dos oito passos a serem seguidos, c) Forma de publicação da revisão sistemática com meta-análise e d) Conclusão. Foram descritos os métodos de revisão sistemática de forma detalhada, com análise crítica dos métodos de compilação estatística dos resultados, com ênfase na utilização da curva Summary Receiver Operator Characteristic. Forneceu-se referência para os detalhes de cada técnica estatística utilizada na meta-análise. Concluímos que as revisões sistemáticas com meta-análise de exames diagnósticos ou de fatores prognósticos são valiosas na compilação de dados de vários estudos sobre o mesmo tema, reduzindo vieses e aumentando o poder estatístico da pesquisa primária.
Resumo:
El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware. Today´s advances in high-performance computing are driven by parallel processing capabilities of available hardware architectures. These architectures enable the acceleration of algorithms when thes ealgorithms are properly parallelized and exploit the specific processing power of the underneath architecture. Most current processors are targeted for general pruposes and integrate several processor cores on a single chip, resulting in what is known as a Symmetric Multiprocessing (SMP) unit. Nowadays even desktop computers make use of multicore processors. Meanwhile, the industry trend is to increase the number of integrated rocessor cores as technology matures. On the other hand, Graphics Processor Units (GPU), originally designed to handle only video processing, have emerged as interesting alternatives to implement algorithm acceleration. Current available GPUs are able to implement from 200 to 400 threads for parallel processing. Scientific computing can be implemented in these hardware thanks to the programability of new GPUs that have been denoted as General Processing Graphics Processor Units (GPGPU).However, GPGPU offer little memory with respect to that available for general-prupose processors; thus, the implementation of algorithms need to be addressed carefully. Finally, Field Programmable Gate Arrays (FPGA) are programmable devices which can implement hardware logic with low latency, high parallelism and deep pipelines. Thes devices can be used to implement specific algorithms that need to run at very high speeds. However, their programmability is harder that software approaches and debugging is typically time-consuming. In this context where several alternatives for speeding up algorithms are available, our work aims at determining the main features of thes architectures and developing the required know-how to accelerate algorithm execution on them. We look at identifying those algorithms that may fit better on a given architecture as well as compleme
Resumo:
n el desarrollo contemporáneo de propuestas normativas de democracia es posible identificar una recuperación de la dimensión territorial de los procesos sociopolíticos, un redescubrimiento de lo local dado por el interés de explicar y proponer soluciones a los nuevos desafíos que la inequidad, las crisis del régimen de acumulación y las crisis en los modos de coordinación social presentan a las sociedades contemporáneas. En este contexto lo local no sólo adquiere un nuevo protagonismo en relación a las preocupaciones concernientes al desarrollo sostenible, sino también como ámbito que por cuestiones de “proximidad” constituye el espacio “natural” para la realización de la democracia. La relación estado y sociedad, las posibilidades de hacer efectiva la participación y de generar condiciones que hacen factible el control del poder político por parte de los ciudadanos parecieran encontrar en lo local mejores condiciones de realización. Sin embargo y a pesar de los avances descriptos, son escasos los intentos por profundizar la especificidad de la democracia local que aborden y articulen reflexiones teórico-conceptuales que permitan identificar principios normativos básicos contrastables empíricamente con las instituciones y prácticas locales concretas. Las bondades de la democracia local son por lo general dadas por sentadas, sin problematizar sus particularidades, su relación con una teoría general de la democracia, su relación con el territorio a diferentes escalas y sus manifestaciones en instituciones y prácticas de los actores sociales. Desde el proyecto se sostiene que a partir de la reconstrucción y problematización de los orígenes filosóficos conceptuales que sustentan la Teoría de la Democracia Local es posible identificar un marco teórico normativo que le es específico y que posibilita el reconocimiento de los meta-requisitos necesarios tanto para su realización como para su contribución al fortalecimiento del régimen democrático en general. El establecimiento de estos requisitos permitirá construir matrices analíticas para el estudio empírico de los diseños y prácticas institucionales, como así también los procesos de constitución, reproducción y contestación de tales arreglos y prácticas por parte de los actores sociales. El proyecto se propone diseñar matrices analíticas que permitan articular distintos niveles y dimensiones de análisis de la Democracia Local que sean aplicables al estudio de casos de ciudades de porte medio de América Latina.
Resumo:
FUNDAMENTO: Ultrassom Intracoronariano (USIC) tem sido usado como um método auxiliar a fim de otimizar o implante de stents. No entanto, o impacto desse método em alguns resultados é controverso. OBJETIVO: Analisar sistematicamente o impacto dos stents coronarianos guiados por USIC, em comparação com os stents guiados angiograficamente, sobre os resultados clínicos e angiográficos. MÉTODOS: Foi realizada uma busca em bases de dados (MEDLINE, Cochrane CENTRAL, EMBASE) e referências de estudos publicados entre 1982 e 2010. Foram incluídos Ensaios Clínicos Randomizados (ECR) que compararam o implante de stents coronarianos guiados por angiografia e USIC versus implante de stents coronarianos guiados apenas por angiografia (ANGIO). O seguimento mínimo foi de seis meses e os resultados avaliados foram eventos cardíacos adversos importantes (MACE), Revascularização da Lesão-alvo (RLA) e reestenose angiográfica. Dois revisores extraíram os dados de forma independente. Razão de risco sumário e intervalos de confiança de 95% (CI) foram calculados com modelos com efeitos aleatórios. A abordagem GRADE foi utilizada para determinar a qualidade geral de evidências para cada resultado. RESULTADOS: Dos 3.631 artigos identificados, oito ECR avaliando um total de 2.341 pacientes foram incluídos. Houve uma redução de 27% na reestenose angiográfica (95% IC: 3% -46%) e uma redução de 38% em RLA (95% IC: 17% -53%) em favor de USIC versus ANGIO. No entanto, os MACE não foram reduzidos por USIC (RR: 0,79; 95%CI: 0,61-1,03). Os dados MACE representam apenas 47% do tamanho ótimo de informações necessárias para detectar com segurança um efeito de tratamento plausível. CONCLUSÕES: Observamos que o implante de stent coronariano guiado por USIC oferece reduções significativas em RLA e reestenose angiográfica em comparação com implante de stent guiado por angiografia, porém não reduz casos de MACE.
Resumo:
FUNDAMENTO: Apesar da evolução tecnológica do cardiodesfibrilador implantável, uma das questões que permanece em aberto é sobre o eventual benefício do cardiodesfibrilador implantável de dupla câmara comparativamente ao de câmara única, para diminuir os choques inapropriados. OBJETIVO: Avaliar, em pacientes com cardiodesfibrilador implantável, qual é o tipo de dispositivo que proporciona menor número de choques inapropriados (câmara dupla versus câmara única). MÉTODOS: Meta-análise da literatura publicada, de estudos randomizados, comparando cardiodesfibrilador implantável de câmara dupla ao de câmara única, que tenham, como endpoint avaliado, a ocorrência de choques inapropriados. RESULTADOS: O cardiodesfibrilador implantável de câmara dupla não mostrou benefícios na redução do número de pacientes com choques inapropriados. Pelo contrário, na análise de efeitos fixos, a associação foi tendencialmente favorável ao cardiodesfibrilador implantável de câmara única (OR = 1,53; IC95%: 0,91-2,57), não obstante a ausência de significado estatístico (p = 0,11). Merece destaque a heterogenia observada nos resultados (I2 = 53%), o que motivou a replicação da análise utilizando um modelo de efeitos aleatórios. No entanto, as diferenças significativas permaneceram na ocorrência de choques inapropriados em ambos os grupos (OR = 1,1; IC95%: 0,37-3,31; p = 0,86). Para complementar a análise, procedeu-se à análise de sensibilidade, na qual se verificou que a exclusão de um estudo resultava na mais baixa heterogenia observada (I2=24%) e na associação com os choques inapropriados significativamente favorável ao cardiodesfibrilador de câmara única (OR = 1,91; IC95%: 1,09-3,37; p = 0,27). CONCLUSÕES: Verificou-se a não existência de evidência clara de superioridade de qualquer um dos dispositivos avaliados.
Resumo:
Fundamento: Pressão arterial elevada é o principal fator de risco para doenças cardiovasculares. Baixos índices de controle da pressão arterial em populações latino-americanas reforçam a necessidade de reunir evidências sobre terapias eficazes. Objetivo: Avaliar o efeito das intervenções de modificações de dietas sobre pressão arterial em populações latino-americanas. Métodos: Revisão sistemática. Foram pesquisadas diversas bases de dados (MEDLINE-PubMed, Embase, Cochrane Library, CINAHL, Web of Science, Scopus, SciELO, LILACS e BVS) e realizada busca manual até abril de 2013. Foram incluídos estudos paralelos de intervenções em dieta em populações adultas da América Latina reportando pressão arterial (em mmHg) antes e após a intervenção. Resultados: Dos 405 estudos encontrados, 10 ensaios clínicos randomizados foram incluídos e divididos em 3 subgrupos, de acordo com a dieta proposta como intervenção. Houve redução não significativa da pressão arterial sistólica nos subgrupos de substituição mineral -4,82 (IC 95%: -11,36 a 1,73 mmHg) e padrões complexos -3,17 (IC 95%: -7,62 a 1,28 mmHg). Para a pressão arterial diastólica, com exceção do subgrupo de dietas hiperproteicas, todos os subgrupos apresentaram redução significativa, com -4,66 (IC 95%: -9,21 a -0,12 mmHg) e -4,55 (IC 95%: -7,04 a -2,06 mmHg) para substituição mineral e padrões complexos, respectivamente. Conclusão: A evidência disponível sobre os efeitos de alterações de dieta na pressão arterial em populações latino-americanas indica um efeito homogêneo, porém não significativo, para pressão arterial sistólica. Estudos maiores e com maior rigor metodológico são necessários para construção de evidência robusta.
Resumo:
The use of yoga as an effective cardiac rehabilitation in patients with chronic heart failure (CHF) remains controversial. We performed a meta-analysis to examine the effects of yoga on exercise capacity and health-related quality of life (HRQOL) in patients with CHF. Methods: We searched MEDLINE, Cochrane Central Register of Controlled Trials, Excerpta Medica database, LILACS, Physiotherapy Evidence Database, The Scientific Electronic Library Online, and Cumulative Index to Nursing and Allied Health (from the earliest date available to December 2013) for randomized controlled trials (RCTs) examining the effects of yoga versus exercise and/or of yoga versus control on exercise capacity (peakVO2) and quality-of-life (HRQOL) in CHF. Two reviewers selected studies independently. Weighted mean differences (WMDs) and 95% confidence intervals (CIs) were calculated, and heterogeneity was assessed using the I2 test. Two studies met the selection criteria (total: 30 yoga and 29 control patients). The results suggested that yoga compared with control had a positive impact on peak VO2 and HRQOL. Peak VO2, WMD (3.87 95% CI: 1.95 to 5.80), and global HRQOL standardized mean differences (-12.46 95% CI: -22.49 to -2.43) improved in the yoga group compared to the control group. Yoga enhances peak VO2 and HRQOL in patients with CHF and could be considered for inclusion in cardiac rehabilitation programs. Larger RCTs are required to further investigate the effects of yoga in patients with CHF.
Resumo:
Background:Several studies have been attempting to ascertain the risks of Sleep Apnea Syndrome (SAS) and its morbidity and mortality.Objective:The main objective was to verify whether SAS increases the risk of death; the secondary objective was to evaluate its morbidity in relation to cardiovascular disease and the number of days hospitalized.Methods:A systematic review and a meta-analysis were performed of the published literature. The research focused on studies comparing the number of deaths in patients with untreated SAS and in patients with non-SAS.Results:The meta-analysis was based on 13 articles, corresponding to a total of 13394 participants divided into two groups (non-SAS = 6631; SAS = 6763). The meta-analysis revealed a clear association of SAS with the occurrence of fatal events, where the presence of SAS corresponded to a 61% higher risk of total mortality (OR=1.61; CI: 1.43 - 1.81; p < 0.00001), while the risk of death from cardiac causes was 2.52 times higher in these patients (OR = 2.52; IC: 1.80 - 3.52; p < 0.00001). Similar results were obtained for mortality from other causes (OR = 1.68; CI: 1.08 - 2.61; p = 0.02). Resembling results were obtained in the remaining outcomes: non-fatal cardiovascular events were higher in the SAS group (OR = 2.46; IC: 1.80 - 3.36; p < 0.00001), the average number of days hospitalized was also higher in the SAS group (IV = 18.09; IC: 13.34 - 22.84; p < 0.00001).Conclusion:The results show that untreated SAS significantly increases the risk of death, cardiovascular events and the average number of days hospitalized.