999 resultados para Algoritmo de Prim


Relevância:

10.00% 10.00%

Publicador:

Resumo:

FUNDAMENTO: As diretrizes nacionais e internacionais enfatizam a importância do tratamento eficaz da hipertensão arterial. Apesar disso, verificam-se baixos índices de controle e alcance das metas preconizadas, indicando que é importante planejar e implementar melhores estratégias de tratamento. OBJETIVO: Avaliar a eficácia de um tratamento, em escalonamento de doses, tendo como base a olmesartana medoxomila. MÉTODOS: Este é um estudo aberto, nacional, multicêntrico e prospectivo, de 144 pacientes com hipertensão arterial primária nos estágios 1 e 2, virgens de tratamento ou após período de washout de duas a três semanas para aqueles em tratamento ineficaz. Avaliou-se o uso da olmesartana medoxomila num algoritmo de tratamento, em quatro fases: (i) monoterapia (20 mg), (ii-iii) associada à hidroclorotiazida (20/12,5 mg e 40/25 mg) e (iv) adição de besilato de anlodipino (40/25 mg + 5 mg). RESULTADOS: Ao fim do tratamento, em escalonamento, 86% dos sujeitos de pesquisa alcançaram a meta de pressão arterial (PA) < 130/85 mmHg. Ocorreram reduções na pressão arterial sistólica (PAS) e na pressão arterial diastólica (PAD) de, no máximo, -44,4 mmHg e -20,0 mmHg, respectivamente. A taxa dos respondedores sistólicos (PAS > 20 mmHg) foi de 87,5% e diastólicos (PAD > 10 mmHg) de 92,4%. CONCLUSÃO: O estudo se baseou em um esquema de tratamento semelhante à abordagem terapêutica da prática clínica diária e mostrou que o uso da olmesartana medoxomila, em monoterapia ou em associação a hidroclorotiazida e anlodipino, foi eficaz para o alcance de meta para hipertensos dos estágios 1 e 2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En dispositivos electrónicos de última generación destinados a funciones de comunicación o control automático, los algoritmos de procesamiento digital de señales trasladados al hardware han ocupado un lugar fundamental. Es decir el estado de arte en el área de las comunicaciones y control puede resumirse en algoritmos basados en procesamiento digital de señales. Las implementaciones digitales de estos algoritmos han sido estudiadas en áreas de la informática desde hace tiempo. Sin embargo, aunque el incremento en la complejidad de los algoritmos modernos permite alcanzar desempeños atractivos en aplicaciones específicas, a su vez impone restricciones en la velocidad de operación que han motivado el diseño directamente en hardware de arquitecturas para alto rendimiento. En este contexto, los circuitos electrónicos basados en lógica programable, principalmente los basados en FPGA (Field-Programmable Gate Array), permiten obtener medidas de desempeño altamente confiables que proporcionan el acercamiento necesario hacia el diseño electrónico de circuitos para aplicaciones específicas “ASIC-VLSI” (Application Specific Integrated Circuit - Very Large Scale Integration). En este proyecto se analiza el diseño y la implementación de aquitecturas electrónicas para el procesamiento digital de señales, con el objeto de obtener medidas reales sobre el comportamiento del canal inalámbrico y su influencia sobre la estimación y el control de trayectoria en vehículos aéreos no tripulados (UAV, Unmanned Aerial Vehicle). Para esto se propone analizar un dispositivo híbrido basado en microcontroladores y circuitos FPGA y sobre este mismo dispositivo implementar mediante algoritmo un control de trayectoria que permita mantener un punto fijo en el centro del cuadro de una cámara de video a bordo de un UAV, que sea eficiente en términos de velocidad de operación, dimensiones y consumo de energía.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware. Today´s advances in high-performance computing are driven by parallel processing capabilities of available hardware architectures. These architectures enable the acceleration of algorithms when thes ealgorithms are properly parallelized and exploit the specific processing power of the underneath architecture. Most current processors are targeted for general pruposes and integrate several processor cores on a single chip, resulting in what is known as a Symmetric Multiprocessing (SMP) unit. Nowadays even desktop computers make use of multicore processors. Meanwhile, the industry trend is to increase the number of integrated rocessor cores as technology matures. On the other hand, Graphics Processor Units (GPU), originally designed to handle only video processing, have emerged as interesting alternatives to implement algorithm acceleration. Current available GPUs are able to implement from 200 to 400 threads for parallel processing. Scientific computing can be implemented in these hardware thanks to the programability of new GPUs that have been denoted as General Processing Graphics Processor Units (GPGPU).However, GPGPU offer little memory with respect to that available for general-prupose processors; thus, the implementation of algorithms need to be addressed carefully. Finally, Field Programmable Gate Arrays (FPGA) are programmable devices which can implement hardware logic with low latency, high parallelism and deep pipelines. Thes devices can be used to implement specific algorithms that need to run at very high speeds. However, their programmability is harder that software approaches and debugging is typically time-consuming. In this context where several alternatives for speeding up algorithms are available, our work aims at determining the main features of thes architectures and developing the required know-how to accelerate algorithm execution on them. We look at identifying those algorithms that may fit better on a given architecture as well as compleme

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto se enmarca en la utlización de métodos formales (más precisamente, en la utilización de teoría de tipos) para garantizar la ausencia de errores en programas. Por un lado se plantea el diseño de nuevos algoritmos de chequeo de tipos. Para ello, se proponen nuevos algoritmos basados en la idea de normalización por evaluación que sean extensibles a otros sistemas de tipos. En el futuro próximo extenderemos resultados que hemos conseguido recientemente [16,17] para obtener: una simplificación de los trabajos realizados para sistemas sin regla eta (acá se estudiarán dos sistemas: a la Martin Löf y a la PTS), la formulación de estos chequeadores para sistemas con variables, generalizar la noción de categoría con familia utilizada para dar semántica a teoría de tipos, obtener una formulación categórica de la noción de normalización por evaluación y finalmente, aplicar estos algoritmos a sistemas con reescrituras. Para los primeros resultados esperados mencionados, nos proponemos como método adaptar las pruebas de [16,17] a los nuevos sistemas. La importancia radica en que permitirán tornar más automatizables (y por ello, más fácilmente utilizables) los asistentes de demostración basados en teoría de tipos. Por otro lado, se utilizará la teoría de tipos para certificar compiladores, intentando llevar adelante la propuesta nunca explorada de [22] de utilizar un enfoque abstracto basado en categorías funtoriales. El método consistirá en certificar el lenguaje "Peal" [29] y luego agregar sucesivamente funcionalidad hasta obtener Forsythe [23]. En este período esperamos poder agregar varias extensiones. La importancia de este proyecto radica en que sólo un compilador certificado garantiza que un programa fuente correcto se compile a un programa objeto correcto. Es por ello, crucial para todo proceso de verificación que se base en verificar código fuente. Finalmente, se abordará la formalización de sistemas con session types. Los mismos han demostrado tener fallas en sus formulaciones [30], por lo que parece conveniente su formalización. Durante la marcha de este proyecto, esperamos tener alguna formalización que dé lugar a un algoritmo de chequeo de tipos y a demostrar las propiedades usuales de los sistemas. La contribución es arrojar un poco de luz sobre estas formulaciones cuyos errores revelan que el tema no ha adquirido aún suficiente madurez o comprensión por parte de la comunidad. This project is about using type theory to garantee program correctness. It follows three different directions: 1) Finding new type-checking algorithms based on normalization by evaluation. First, we would show that recent results like [16,17] extend to other type systems like: Martin-Löf´s type theory without eta rule, PTSs, type systems with variables (in addition to systems in [16,17] which are a la de Bruijn), systems with rewrite rules. This will be done by adjusting the proofs in [16,17] so that they apply to such systems as well. We will also try to obtain a more general definition of categories with families and normalization by evaluation, formulated in categorical terms. We expect this may turn proof-assistants more automatic and useful. 2) Exploring the proposal in [22] to compiler construction for Algol-like languages using functorial categories. According to [22] such approach is suitable for verifying compiler correctness, claim which was never explored. First, the language Peal [29] will be certified in type theory and we will gradually add funtionality to it until a correct compiler for the language Forsythe [23] is obtained. 3) Formilizing systems for session types. Several proposals have shown to be faulty [30]. This means that a formalization of it may contribute to the general understanding of session types.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

FUNDAMENTO: O uso da rosiglitazona tem sido o objeto de extensas discussões. OBJETIVO: Avaliar os efeitos da rosiglitazona nas artérias ilíacas, no local da injúria e na artéria contralateral, de coelhos hipercolesterolêmicos submetidos à lesão por cateter-balão. MÉTODOS: Coelhos brancos machos receberam uma dieta hipercolesterolêmica através de gavagem oral por 6 semanas e foram divididos em 2 grupos: grupo rosiglitazona (GR - 14 coelhos tratados com rosiglitazona por 6 semanas) e grupo controle (GC - 18 coelhos sem rosiglitazona). Os animais foram submetidos a lesão por cateter-balão na artéria ilíaca direita no 14º dia. RESULTADOS: Na artéria ilíaca contralateral, não houve diferença significante na razão entre as áreas intimal e medial (RIM) entre os grupos GR e GC. A rosiglitazona não reduziu a probabilidade de lesões tipo I, II ou III (72,73% vs 92,31%; p=0,30) e lesões tipo IV ou V (27,27% vs 7,69%; p=0,30). Na artéria ilíaca homolateral, a área intimal era significantemente menor no GR quando comparado ao GC (p = 0,024). A área luminal era maior no GR quando comparado ao GC (p < 0,0001). Houve uma redução significante de 65% na IMR no GR quando comparado ao GC (p = 0,021). Nenhum dos critérios histológicos para lesões ateroscleróticas tipos I a V (American Heart Association) foram encontrados na artéria ilíaca homolateral. CONCLUSÃO: Esses achados demonstram que a administração de rosiglitazona por 6 semanas impede a aterogênese no local da lesão, mas não em um vaso distante do sítio da lesão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A ressuscitação cardiocerebral (RCC) é uma nova abordagem à ressuscitação de pacientes com parada cardíaca fora do hospital (PCFH). O primeiro componente principal da RCC são as compressões torácicas contínuas (CTC), também chamadas de RCP com compressões torácicas isoladas ou "RCP somente com compressões torácicas" ("Hands-only" CPR), recomendadas como parte da RCC por todos os observadores que testemunhem um colapso súbito de origem presumidamente cardíaco. O segundo componente é um novo algoritmo de tratamento de Suporte Avançado de Vida em Cardiologia (ACLS) para Serviços Médicos de Emergência (SME). Esse algoritmo enfatiza compressões torácicas ininterruptas a despeito de outros procedimentos contínuos como parte do esforço de resgate. Um terceiro componente foi recentemente adicionado à RCC, e é o cuidado agressivo pós-ressuscitação. A RCC tem aumentado a participação de testemunhas e tem melhorado as taxas de sobrevivência em varias comunidades. Essa é a hora para outras comunidades re-examinarem seus próprios desfechos com parada cardíaca e considerar a possibilidade de se juntar a essas cidades e comunidades que dobraram e até mesmo triplicaram as suas taxas de sobrevivência de PCFH.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

FUNDAMENTO: Técnicas de imageamento in vivo permitem avaliar sequencialmente a morfologia e a função dos órgãos em diversos modelos experimentais. Desenvolvemos um dispositivo de adaptação de uma gama-câmara clínica para obter imagens tomográficas por emissão de fótons singulares (SPECT) de alta resolução, baseado em colimador pinhole. OBJETIVO: Determinar a acurácia desse sistema na quantificação da área de infarto miocárdico em ratos. MÉTODOS: Treze ratos Wistar machos (250 g) foram submetidos a infarto do miocárdio por oclusão da artéria coronária esquerda. Após 4 semanas, foram adquiridas imagens tomográficas com o sistema desenvolvido, 1,5 hora após a injeção endovenosa de 555MBq de 99mTc-Sestamibi. Na reconstrução tomográfica, utilizamos software especialmente desenvolvido baseado no algoritmo de Máxima Verossimilhança. Comparamos as médias e analisamos a correlação entre a extensão dos defeitos perfusionais detectados pela cintilografia e a extensão da fibrose miocárdica avaliada pela histologia. RESULTADOS: As imagens apresentaram ótima relação órgão-alvo/fundo, com apropriada visualização das paredes e da cavidade do ventrículo esquerdo. Todos os animais exibindo áreas de infarto foram corretamente identificados pelas imagens de perfusão. Não houve diferença entre a área do infarto medida pelo SPECT (21,1 ± 21,2%) e pela histologia (21,7 ± 22,0%; p = 0,45), obtendo forte correlação entre os valores da área de infarto mensurada pelos dois métodos (r = 0,99; p < 0,0001). CONCLUSÃO: O sistema desenvolvido apresentou resolução espacial adequada e elevada acurácia para detecção e quantificação das áreas de infarto miocárdico, sendo uma opção de baixo custo e grande versatilidade na obtenção de imagens em SPECT de alta resolução de órgãos de pequenos roedores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fundamento: O impacto pressão arterial (PA) na adolescência sobre outros fatores de risco cardiovascular em adultos jovens é importante para a prevenção primária. Objetivo: Avaliar a PA, índices antropométricos, perfil metabólico e inflamatório de jovens estratificados pelo comportamento da sua PA obtida há 18 anos. Métodos: Avaliaram-se 116 indivíduos, sendo 63 homes, pertencentes ao estudo do Rio de Janeiro (seguimento 17,76 ± 1,63 anos) em dois momentos: A1 (12,40 ± 1,49 anos) e A2 (30,09 ± 2,01 anos). Os 116 indivíduos foram divididos em dois grupos: GN (n = 71), PA normal em A1; e GH (n = 45): PA anormal em A1. A PA, o peso, a altura e o índice de massa corporal (IMC) foram obtidos em A1 e A2. Em A2, acrescentaram-se a circunferência abdominal (CA) e variáveis laboratoriais, metabólicas e inflamatórias. Resultados: 1) Os grupos não diferiram quanto à idade e sexo; 2) Em A2, GH apresentou maiores médias de peso, IMC, PA, insulina, HOMA-IR (p < 0,001), leptina (p < 0,02), Apolipoproteína B100 e A1 (p < 0,02), relação Apolipoproteína B100 / Apolipoproteína A1 (p < 0,010), maiores prevalências de sobrepeso/obesidade (p < 0,001), da CA aumentada (p < 0,001) e de hipertensão arterial (p < 0,02); 3) Não houve diferença entre os grupos para as variáveis inflamatórias; 4) Houve correlação positiva da PA em A1 com a PA, o IMC, e com a insulina, a leptina e o HOMA-IR em A2 (p < 0,05). Conclusões: A PA na adolescência se associou a maiores valores de PA, variáveis antropométricas e metabólicas na fase adulta jovem, mas não a variáveis inflamatórias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

FUNDAMENTO: O fenômeno da isquemia e reperfusão intestinal é um evento frequente na clínica e está associado a repercussões deletérias em órgãos a distância, em especial ao coração. OBJETIVO: Investigar a expressão gênica do estresse oxidativo e defesa antioxidante no coração de camundongos isogênicos, submetidos a isquemia e reperfusão intestinal (IR). MÉTODOS: Doze camundongos (C57BL/6) foram distribuídos em dois grupos: Grupo IR (GIR) com 60 min de oclusão da artéria mesentérica superior, seguidos de 60 min de reperfusão. Grupo Controle (GC) submetidos a anestesia e a laparotomia sem o procedimento de IR observados por 120 min. As amostras de intestino e coração foram processadas pelo método (RT-qPCR / Reverse transcriptase - quantitative Polymerase Chain Reaction) para determinar a expressão gênica de 84 genes relacionados ao estresse oxidativo ("t" de Student, p < 0,05). RESULTADOS: Observou-se no tecido intestinal (GIR) uma expressão significantemente aumentada em 65 (74,71%) genes em relação ao tecido normal (GC), e 37 (44,04%) genes estiveram hiperexpressos (maior que três vezes o limiar permitido pelo algoritmo). No tocante aos efeitos da I/R intestinal a distância no tecido cardíaco verificou-se a expressão significantemente aumentada de 28 genes (33,33%), mas somente oito genes (9,52%) se hiperexpressaram três vezes acima do limiar. Quatro (7,14%) desses oito genes se expressaram simultaneamente nos tecidos intestinal e cardíaco. No GIR notaram-se cardiomiócitos com núcleos de menor tamanho, picnóticos, ricos em heterocromatina e raros nucléolos, indicando sofrimento cardíaco. CONCLUSÃO: A I/R intestinal promoveu a hiperexpressão estatisticamente significante de oito genes associados ao estresse oxidativo a distância no tecido miocárdico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fundamento: Os modelos prognósticos disponíveis para Síndrome Coronariana Aguda (SCA) podem ter limitações de performance, por terem sido elaborados há vários anos, ou problemas de aplicabilidade. Objetivos: Elaborar escores para predição de eventos desfavoráveis em 30 dias e 6 meses, em pacientes com SCA, com ou sem Supradesnivelamento de ST (SST), atendida em hospital privado terciário. Métodos: Coorte prospectiva de pacientes consecutivos com SCA admitidos entre agosto/2009 a junho/2012. O desfecho primário composto foi a ocorrência de óbito, infarto ou reinfarto, Acidente Vascular Cerebral (AVC), parada cardiorrespiratória e sangramento maior. As variáveis preditoras foram selecionadas de dados clínicos, laboratoriais, eletrocardiográficos e da terapêutica. O modelo final foi obtido por meio de regressão logística e submetido a validação interna, utilizando-se bootstraping. Resultados: Incluímos 760 pacientes, 132 com SCA com SST e 628 sem SST. A idade média foi 63,2 ± 11,7 anos, sendo 583 homens (76,7%). O modelo final para eventos em 30 dias contém cinco preditores: idade ≥ 70 anos, antecedente de neoplasia, Fração de Ejeção do Ventrículo Esquerdo (FEVE) < 40%, troponinaI > 12,4 ng/mL e trombólise. Na validação interna, o modelo mostrou ter boa performance com área sob a curva de 0,71.Os preditores do modelo para 6 meses são: antecedente de neoplasia, FEVE < 40%, trombólise, troponina I > 14,3 ng/mL, creatinina > 1,2 mg/dL, antecedente de doença pulmonar obstrutiva crônica e hemoglobina < 13,5 g/dL. Na validação interna, o modelo apresentou boa performance com área sob a curva de 0,69. Conclusões: Desenvolvemos escores de fácil utilização e boa performance para predição de eventos adversos em 30 dias e 6 meses em pacientes com SCA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fundamento: As diretrizes baseiam-se em evidências para pautar suas recomendações; apesar disso, há uma lacuna entre o recomendado e a prática clínica. Objetivo: Descrever a prática de prescrição de tratamentos com indicação baseada em diretrizes para pacientes com síndrome coronariana aguda no Brasil. Métodos: Foi realizada uma subanálise do registro ACCEPT, na qual foram avaliados os dados epidemiológicos e a taxa de prescrição de ácido acetilsalicílico, inibidores P2Y12, antitrombóticos, betabloqueadores, inibidores da enzima conversora de angiotensina/bloqueadores AT1 e estatinas. Além disso, avaliou-se a qualidade da reperfusão coronariana no infarto com supradesnivelamento do segmento ST. Resultados: Foram avaliados 2.453 pacientes. As taxas de prescrição de ácido acetilsalicílico, inibidores de P2Y12, antitrombóticos, betabloqueadores, inibidores da enzima conversora de angiotensina/bloqueadores AT1 e estatinas foram, respectivamente, de 97,6%, 89,5%, 89,1, 80,2%, 67,9%, 90,6%, em 24 horas, e, respectivamente, de 89,3%, 53,6, 0%, 74,4%, 57,6%, 85,4%, em 6 meses. Com relação ao infarto com supradesnivelamento do segmento ST, somente 35,9% e 25,3% dos pacientes foram submetidos a angioplastia primária e trombólise, respectivamente, nos tempos recomendados. Conclusão: Este registro mostrou altas taxas de prescrição inicial de antiplaquetários, antitrombóticos e estatina, bem como taxas mais baixas de betabloqueadores e de inibidores da enzima conversora de angiotensina/bloqueadores AT1. Independentemente da classe, todos apresentaram queda do uso aos 6 meses. A maioria dos pacientes com infarto com supradesnivelamento do segmento ST não foi submetida a reperfusão coronariana no tempo recomendado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fundamento: A hipertensão arterial sistêmica constitui importante problema de saúde pública e significativa causa de mortalidade cardiovascular. A elevada prevalência e as reduzidas taxas de controle tensional despertaram o interesse por estratégias terapêuticas alternativas. A denervação simpática renal percutânea surgiu como perspectiva no tratamento de hipertensos resistentes. Objetivo: Avaliar a factibilidade e a segurança da denervação renal com cateter irrigado. Métodos: Dez hipertensos resistentes foram submetidos ao procedimento. O desfecho primário foi a segurança, avaliada por eventos adversos periprocedimento, função renal e anormalidade vascular renal aos 6 meses. Os desfechos secundários constituíram mudanças na pressão arterial (consultório e monitorização ambulatorial) e no número de anti-hipertensivos aos 6 meses. Resultados: A média de idade foi de 47,3 (± 12) anos, 90% eram mulheres. No primeiro caso, houve dissecção de artéria renal causada por trauma da bainha, fato que não se repetiu após ajuste técnico, demonstrando efeito da curva de aprendizado. Nenhum caso de trombose/infarto renal ou óbito foi reportado. Não se observou elevação dos níveis séricos de creatinina durante o seguimento. Aos 6 meses, diagnosticou-se um caso de estenose significativa de artéria renal, sem repercussão clínica. A denervação renal reduziu a pressão arterial de consultório, em média, em 14,6/6,6 mmHg (p = 0,4 tanto para pressão arterial sistólica como para a diastólica). A redução média da pressão arterial pela monitorização ambulatorial foi de 28/17,6 mmHg (p = 0,02 e p = 0,07 para pressão arterial sistólica e diastólica, respectivamente). Houve redução média de 2,1 anti-hipertensivos. Conclusão: A denervação renal é factível e segura no tratamento da hipertensão arterial sistêmica resistente. Estudos maiores são necessários para confirmar nossos resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma das maiores ameaças à diversidade biológica é a perda de hábitat, de modo que uma das alternativas para proteção da biodiversidade é a seleção de reservas pela utilização de procedimentos de otimização para estabelecer áreas prioritárias para conservação. Neste estudo, um algoritmo simulated annealing foi usado para verificar como a periferia das distribuições das espécies influencia na seleção de áreas no Cerrado para conservação de 131 espécies de anfíbios anuros. Dois conjuntos de dados foram analisados, um contendo a distribuição original das espécies e outro excluindo a periferia das distribuições. As redes ótimas encontradas a partir das distribuições originais contiveram 17 quadrículas enquanto aquelas encontradas a partir das distribuições restritas foram maiores, com 22 células. As células com alto grau de insubstituibilidade foram mantidas em todas as redes e novas regiões de células substituíveis, localizadas na margem do bioma, surgiram quando apenas as distribuições reduzidas foram usadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudio elaborado a partir de una estancia en el Karolinska University Hospital, Suecia, entre marzo y junio del 2006. En la radioterapia estereotáxica extracraneal (SBRT) de tumores de pulmón existen principalmente dos problemas en el cálculo de la dosis con los sistemas de planificación disponibles: la precisión limitada de los algoritmos de cálculo en presencia de tejidos con densidades muy diferentes y los movimientos debidos a la respiración del paciente durante el tratamiento. El objetivo de este trabajo ha sido llevar a cabo la simulación con el código Monte Carlo PENELOPE de la distribución de dosis en tumores de pulmón en casos representativos de tratamientos con SBRT teniendo en cuenta los movimientos respiratorios y su comparación con los resultados de varios planificadores. Se han estudiado casos representativos de tratamientos de SBRT en el Karolinska University Hospital. Los haces de radiación se han simulado mediante el código PENELOPE y se han usado para la obtención de los resultados MC de perfiles de dosis. Los resultados obtenidos para el caso estático (sin movimiento respiratorio ) ponen de manifiesto que, en comparación con la MC, la dosis (Gy/MU) calculada por los planificadores en el tumor tiene una precisión del 2-3%. En la zona de interfase entre tumor y tejido pulmonar los planificadores basados en el algoritmo PB sobrestiman la dosis en un 10%, mientras que el algoritmo CC la subestima en un 3-4%. Los resultados de la simulación mediante MC de los movimientos respiratorios indican que los resultados de los planificadores son suficientemente precisos en el tumor, aunque en la interfase hay una mayor subestimación de la dosis en comparación con el caso estático. Estos resultados son compatibles con la experiencia clínica adquirida durante 15 años en el Karolinska University Hospital. Los resultados se han publicado en la revista Acta Oncologica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es proposa mètodes per a millorar la qualitat de predicció d'Incendis forestals per mitjà de combinació d'estratègies basades en guia de dades. Els simuladors de foc són implementacions de models físics i matemàtics que són abstraccions de la realitat i per a funcionar necessiten paràmetres difícils de mesurar i/o amb un comportament dinàmic en el temps. Utilitzant Còmput d'Altes Prestacions apliquem algorismes evolutius reduint l'espai de cerca dels valors que posteriorment s'integren en un conjunt de possibilitats. Els resultats presenten adaptació al canvi de condicions de l'incendi que serveix de base per a generar una aplicación de temps real.