870 resultados para Meta-heurística algoritmo dos fogos de artifício de busca dinâmica com mutação de covariância
Resumo:
As Turbinas de Vento ou Aerogeradores podem atingir 90 metros de altura e custar mais de 1 milhão de euros. As condições críticas do seu funcionamento, como o ambiente atmosférico com ventos fortes e relâmpagos; as vibrações; as poeiras; as grandes alturas e o difícil acesso para manutenção, tornam a ocorrência de incêndio muito provável. O que será melhor, ver pacientemente um fogo destruir até à exaustão a turbina ou, ter instalado um sistema que o elimina logo na origem?
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
Análise da experiência e resultados da Instituição no trammento e reabilitação de lesões da mão provocadas pela explosão de artefactos de fogo de artifício. Casuística do HDE entre Janeiro de 1990 e Janeiro de 1997 constituída por 8 doentes estudados por um protocolo uniforme de avaliação. Na presente série todos os doentes são do meio rural. Verificou-se uma predominância do sexo masculino com 87%. A idade mais atingida foi a dos 10 anos. As lesões foram unilaterais em 87%. Registou-se uma prevalência da mão esquerda em 55%. O primeiro dedo foi o mais atingido com 25,5%. Nas lesões residuais, a amputação foi a mais frequente com 75%, seguida da brida com 62,2% e da alteração da sensibilidade táctil em 50% dos casos. O tratamento cirúrgico e de reabilitação precoce é importante para o prognóstico funcional do doente, mas é na prevenção destes acidentes que está a melhor solução para estes casos.
Resumo:
Os autores reflectem sobre a evolução da formação médica, achando excessiva a ênfase dada actualmente à Medicina baseada na evidência e à meta-análise. Baseados numa análise dos problemas metodológicos dos ensaios clínicos controlados aleatórios e da meta-análise, tecem algumas considerações sobre a utilização destes métodos na prática clínica.
Resumo:
Introdução: Estudos actuais sugerem que o sono possui um papel importante na melhoria do desempenho motor em adultos. Porém, em crianças saudáveis os resultados são contraditórios, indicando que apenas a passagem do tempo pode produzir um ganho ilusório. Objetivo: Identificar e sumarizar a evidência acerca do impacto do sono no desempenho de tarefas de memória procedimental em crianças saudáveis. Métodos: Foi conduzida uma pesquisa bibliográfica nas principais bases de dados electrónicas, Medline, ISI Web of Science e Scopus. Esta foi realizada até 17 de Maio de 2015 e de acordo com o equação de pesquisa. Após a selecção dos artigos, segundo os critérios de inclusão e exclusão, avaliou-se a qualidade metodológica com recurso ao instrumento designado QATSDD (Quality Assessment Tool and Scoring Guidance Notes) e outro instrumento para estudos de intervenção beforeafter, sem grupo de controlo, desenvolvido por profissionais de sáude pertencentes ao National Institutes of Health. A meta-análise foi realizada com a medida do tempo de reacção, usando a diferença das médias padronizadas. O método estatístico utilizado foi Mantel-Haenszel para efeitos aleatórios. Resultados: Conduziu-se a revisão sistemática com quatorze artigos publicados entre 2007 e 2014, três estudos usados na meta-análise. Apenas quatro estudos denotaram melhorias, estatisticamente significativas, no que diz respeito ao efeito de um período de sono no desempenho de uma tarefa motora em crianças. Pelo contrário, a maioria dos estudos é a favor de que um período de sono prejudica o desempenho. Na meta-análise mostra-se que a vigília favorece os valores do tempo de reacção. Conclusões: A presente evidência não suporta o facto de que um período de sono optimiza o desempenho de tarefas de memória procedimental em crianças. Dadas as limitações apresentadas, nomeadamente a heterogeneidade das intervenções e reduzida qualidade metodológica dos estudos incluídos, sem grupo de controlo, sugere-se a realização de estudos futuros com maior nível de evidência.
Resumo:
Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.
Resumo:
OBJECTIVE: Statins are among the most prescribed drugs worldwide and their recently discovered anti-inflammatory effect seems to have an important role in inhibiting proinflammatory cytokine production, chemokines expression and counteracting the harmful effects of sepsis on the coagulation system. We decided to perform a meta-analysis of all randomized controlled trials ever published on statin therapy in septic patients to evaluate their effect on survival and length of hospital stay. DATA SOURCES AND STUDY SELECTION: Articles were assessed by four trained investigators, with divergences resolved by consensus. BioMedCentral, PubMed, Embase and the Cochrane Central Register of clinical trials were searched for pertinent studies. Inclusion criteria were random allocation to treatment and comparison of statins versus any comparator in septic patients. DATA EXTRACTION AND SYNTHESIS: Data from 650 patients in 5 randomized controlled studies were analyzed. No difference in mortality between patients receiving statins versus control (44/322 [14%] in the statins group vs 50/328 [15%] in the control arm, RR = 0.90 [95% CI 0.65 to 1.26], p = 0.6) was observed. No differences in hospital stay (p = 0.7) were found. CONCLUSIONS: Published data show that statin therapy has no effect on mortality in the overall population of adult septic patients. Scientific evidence on statins role in septic patients is still limited and larger randomized trials should be performed on this topic.
Resumo:
As simulações que pretendam modelar fenómenos reais com grande precisão em tempo útil exigem enormes quantidades de recursos computacionais, sejam estes de processamento, de memória, ou comunicação. Se até há pouco tempo estas capacidades estavam confinadas a grandes supercomputadores, com o advento dos processadores multicore e GPUs manycore os recursos necessários para este tipo de problemas estão agora acessíveis a preços razoáveis não só a investigadores como aos utilizadores em geral. O presente trabalho está focado na otimização de uma aplicação que simula o comportamento dinâmico de materiais granulares secos, um problema do âmbito da Engenharia Civil, mais especificamente na área da Geotecnia, na qual estas simulações permitem por exemplo investigar a deslocação de grandes massas sólidas provocadas pelo colapso de taludes. Assim, tem havido interesse em abordar esta temática e produzir simulações representativas de situações reais, nomeadamente por parte do CGSE (Australian Research Council Centre of Excellence for Geotechnical Science and Engineering) da Universidade de Newcastle em colaboração com um membro da UNIC (Centro de Investigação em Estruturas de Construção da FCT/UNL) que tem vindo a desenvolver a sua própria linha de investigação, que se materializou na implementação, em CUDA, de um algoritmo para GPUs que possibilita simulações de sistemas com um elevado número de partículas. O trabalho apresentado consiste na otimização, assente na premissa da não alteração (ou alteração mínima) do código original, da supracitada implementação, de forma a obter melhorias significativas tanto no tempo global de execução da aplicação, como no aumento do número de partículas a simular. Ao mesmo tempo, valida-se a formulação proposta ao conseguir simulações que refletem, com grande precisão, os fenómenos físicos. Com as otimizações realizadas, conseguiu-se obter uma redução de cerca de 30% do tempo inicial cumprindo com os requisitos de correção e precisão necessários.
Resumo:
O objetivo desta dissertação é a determinação da máxima injeção nodal numa rede de energia elétrica, ou seja, qual o valor total máximo de potência ativa que é possível injetar e qual a sua distribuição pelos diversos nós da rede simultaneamente. Determinámos esta máxima injeção nodal em duas situações distintas: injeção não simultânea, injetando potência em um só nó de cada vez e injeção simultânea, injetando potência em todos os nós da rede simultaneamente. Sendo este um problema de natureza combinatória, utilizámos para esta determinação o algoritmo conhecido como nuvem ou enxame de partículas, adaptando-o ao nosso problema. Desenvolvemos o software na linguagem de programação Python utilizando o ambiente Eclipse. Para resolver o trânsito de energia utilizámos o programa PSSE University.Para os exemplos de aplicação utilizámos duas redes de energia elétrica, uma de 6 e outra de 14 barramentos. Estas redes foram baseadas nas redes IEEE 6 BUS e IEEE 14 BUS respetivamente. Concluímos que o algoritmo nuvem ou enxame de partículas cumpriu o objetivo traçado, obtendo as melhores soluções para cada um dos casos, máxima injeção nodal não simultânea e máxima injeção nodal simultânea. No contexto deste problema, o parâmetro chave do algoritmo, comprovado pelos ensaios feitos, é a velocidade máxima de deslocação das partículas, tomando valores típicos de 7 a 10 para a rede de 6 barramentos e de 20 a 25 para a de 14 barramentos.
Resumo:
OBJECTIVES: To evaluate the use of inhaled nitric oxide (NO) in the management of persistent pulmonary hypertension of the newborn. METHODS: Computerized bibliographic search on MEDLINE, CURRENT CONTENTS and LILACS covering the period from January 1990 to March 1998; review of references of all papers found on the subject. Only randomized clinical trials evaluating nitric oxide and conventional treatment were included. OUTCOMES STUDIED: death, requirement for extracorporeal membrane oxygenation (ECMO), systemic oxygenation, complications at the central nervous system and development of chronic pulmonary disease. The methodologic quality of the studies was evaluated by a quality score system, on a scale of 13 points. RESULTS: For infants without congenital diaphragmatic hernia, inhaled NO did not change mortality (typical odds ratio: 1.04; 95% CI: 0.6 to 1.8); the need for ECMO was reduced (relative risk: 0.73; 95% CI: 0.60 to 0.90), and the oxygenation was improved (PaO2 by a mean of 53.3 mm Hg; 95% CI: 44.8 to 61.4; oxygenation index by a mean of -12.2; 95% CI: -14.1 to -9.9). For infants with congenital diaphragmatic hernia, mortality, requirement for ECMO, and oxygenation were not changed. For all infants, central nervous system complications and incidence of chronic pulmonary disease did not change. CONCLUSIONS: Inhaled NO improves oxygenation and reduces requirement for ECMO only in newborns with persistent pulmonary hypertension who do not have diaphragmatic hernia. The risk of complications of the central nervous system and chronic pulmonary disease were not affected by inhaled NO.
Resumo:
Tendo como ponto de partida os estudos da performance para a análise do terrorismo, a presente dissertação teve como resultado a possibilidade de reflectir sobre tácticas de incorporação, reperformance e meta-teatro, três conceitos que permitem compreender de que forma a arte assimila e se compreende em relação com o terrorismo. Apresenta, por um lado, documentos oficiais que demonstram a existência de um conflito quanto à definição de terrorismo, reflectindo sobre “terrorismo de estado” e “contra-estado”. Por outro lado, a partir da análise dos Surveillence Camera Players e da performance Three Posters, ou de artistas como Hasan Elahy e Alyson Wyper, esta dissertação defende que a arte reperforma “táticas de representação” e realização mediática do terrorismo, nomeadamente, o teatro panóptico, a tortura como performance e os vídeo-testemunhos de mártires como retratos e vídeo-performances.
Resumo:
Utilizando-se dados do sensor aerotransportado SAR R99, adquiridos na banda L (1,28 GHz) em amplitude e com quatro polarizações (HH, VV, HV e VH), avaliou-se a distinção de fitofisionomias de floresta de várzea existentes nas Reservas de Desenvolvimento Sustentável Amanã e Mamirauá e áreas adjacentes, com a aplicação do algoritmo Iterated Conditional Modes (ICM) de classificação polarimétrica pontual/contextual. Os resultados mostraram que o uso das distribuições multivariadas em amplitude, conjuntamente com uma banda de textura, produziu classificações de qualidade superior àquelas obtidas com dados polarimétricos uni/bivariados. Esta abordagem permitiu a obtenção de um índice Kappa de 0,8963, discriminando as três classes vegetacionais de interesse, comprovando assim o potencial dos dados do SAR R99 e do algoritmo ICM no mapeamento de florestas de várzea da Amazônia.
Resumo:
Objetivos Desenvolver e avaliar uma tipologia binária de alcoolistas. Métodos Analisados registros de 329 alcoolistas acompanhados em estudo prospectivo e observacional. Análise de Correspondência foi aplicada para selecionar o menor número de variáveis capazes de representar a máxima variabilidade dos sujeitos; Análise de Cluster para identificar dois subtipos; e Análise Heurística para organizar as variáveis selecionadas em grupos de sentido. Análises Bivariadas foram utilizadas para testar possíveis associações com 51 variáveis demográficas ou clinicamente relevantes. Resultados A Análise de Correspondência selecionou 20 variáveis, posteriormente categorizadas em três grupos de sentidos por meio de Análise Heurística: “comportamentos”, “crenças” e “sentimentos”. Os pacientes do subgrupo 1 possuem perfil de maior gravidade clínica, psicopatológica e social. Sentimentos e crenças identificados se associaram a variáveis de consumo e recaída e os comportamentos com repercussão social. Conclusões Os resultados deste estudo permitem supor que a tipologia aqui apresentada possa contribuir para o tratamento desses subtipos de alcoolistas identificados por meio de estratégias teórico-práticas adaptadas às necessidades desses sujeitos.