1000 resultados para algoritmo calcolo taglie pazienti traiettorie Scout validazione


Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Avaliar os efeitos da estimulação atrial otimizada (EAO) (estimulação duplo-sítio atrial, freqüência acima da intrínseca e algoritmo funcional específico) e uso de atenolol, na prevenção da fibrilação atrial (FA) recorrente. Desfecho primário: quantificar a taxa de episódios de FA. Desfechos secundários: qualidade de vida, avaliação de sintomas específicos cardiovasculares, taxa de internações hospitalares, taxa de cardioversões elétricas e farmacológicas e eventos cardíacos adversos. MÉTODOS: Vinte e sete pacientes com FA paroxística recorrente e doença do nó sinusal foram submetidos ao implante de marcapasso duplo-sítio atrial e ventricular e iniciaram com atenolol 100 mg/dia, a seguir foram randomizados em dois grupos, grupo I (3 meses iniciais com EAO e algoritmo especifico ligado e mais 3 com o mesmo desligado) e grupo II (seqüência inversa do grupo I). O modo de estimulação foi DDDR e após 3 meses, foram submetidos à avaliação clínica e eletrônica do sistema de estimulação - mudança automática de modo (AMS), Holter de 24 horas, ecocardiograma e questionário SF-36. Em seguida, foram cruzados e após 6 meses, nova avaliação. RESULTADOS: Pacientes com EAO, quando comparados ao grupo com algoritmo desligado, apresentaram menores taxas de: FA/semana (p<0,001), ativações do AMS (p<0,01), hospitalizações (p<0,001), cardioversões (p<0,001), além de melhores índices dos componentes físico e mental da qualidade de vida. CONCLUSÃO: A terapêutica híbrida, EAO associada ao uso de atenolol, reduziu a taxa de recorrência de FA e proporcionou melhora clínico funcional de pacientes com bradiarritmias sintomáticas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las tareas de investigación involucran tres subproyectos interdependientes: A. Caracterización de muestras extensas. B. Caracterización de muestras delgadas y multiminares. C. Caracterización de partículas y aplicación a la contaminación ambiental. Se prevé utilizar la técnica de Monte Carlo para predecir espectros de FRX con sistema dispersivo en energías. Este mismo método será utilizado para describir la distribución angular de los electrones retrodifundidos para incidencia normal y no normal, y también para mejorar la descripción de la función distribución de ionizaciones f(pz) utilizando secciones eficaces realistas. Paralelamente, se desarrollarán modelos de los parámetros fo, go y h que determinan la función distribución de ionizaciones f(pz). Del mismo modo, se estudiará la caracterización de muestras delgadas y estratificadas. Para ello se realizarán simulaciones Monte Carlo utilizando los resultados previstos en el párrafo anterior y se harán determinaciones experimentales con la microsonda electrónica de sistemas multilaminares simples y multicomponentes. Se extenderán las aplicaciones del programa MULTI desarrollado en nuestro grupo para cuantificación de muestras extensas, láminas delgadas y partículas. En este sentido se implementará un algoritmo para cuantificar muestras con picos no detectables, se evaluarán los errores en las concentraciones calculadas y se incluirá el reforzamiento por fluorescencia con las líneas K beta. Por otro lado, se implementará de un método de procesamiento de datos para el análisis de partículas en EPMA y su aplicación al estudio de la contaminación ambiental mediante el procesamiento de imágenes para la caracterización morfológica y química de partículas en suspensión, análisis de clusters. El objetivo final es la identificación y caracterización de fuentes de contaminación. Esta tarea será complementada con análisis global de la composición química en muestras de materia particulada mediante FRX, y el estudio de sus parámetros físicos mediante el método de simulación Monte Carlo. Se mejorará la estructura experimental de nuestro laboratorio poniendo en funcionamiento un microscopio electrónico Cambridge Stereoscan cedido por la Universidad de Barcelona conjuntamente con la capacidad analítica que ha sido adquirida para extender sus posibilidades de aplicación, y se instalará un equipo de FRX desarrollado en nuestro grupo con accesorios recientemente adquiridos. El desarrollo y solución de los problemas propuestos permitirá mejorar la formación integral de estudiantes en distintas etapas de su carrera de doctorado y recientemente doctorados, ya que presentan además de un aspecto básico, uno aplicado, pues tienden a la solución de situaciones concretas de interés biológico, ambiental y tecnológico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

FUNDAMENTO: Estudos clínicos e epidemiológicos demonstram grande associação da dieta com os agravos crônicos, particularmente com os eventos cardiovasculares, apesar de ainda não compreendidos todos os seus mecanismos de ação. OBJETIVO: Descrever e analisar o risco cardiovascular em vegetarianos e onívoros residentes na Grande Vitória/ES, na faixa etária de 35 a 64 anos. MÉTODOS: Para avaliação do risco cardiovascular foi realizado estudo de coorte histórico com 201 indivíduos. Foram incluídos 67 vegetarianos há no mínimo 5 anos, provenientes da Grande Vitória, e 134 onívoros, participantes do Projeto MONICA/Vitória, pareados por classe socioeconômica, sexo, idade e raça. Medidas bioquímicas e hemodinâmicas foram obtidas na Clínica de Investigação Cardiovascular da UFES. Para comparação de proporções, foi usado o teste chi2 e calculada a razão de prevalência. O risco cardiovascular foi calculado por meio do algoritmo de Framingham. RESULTADOS: A idade média do grupo foi de 47 ± 8 anos e o tempo médio de vegetarianismo 19 ± 10 anos, sendo a dieta ovolactovegetariana seguida por 73% dos vegetarianos. Pressão arterial, glicemia de jejum, colesterol total, colesterol de lipoproteína de baixa densidade (LDL-colesterol) e triglicerídeos foram mais baixos entre vegetarianos (p<0,001). O colesterol de lipoproteína de alta densidade (HDL-colesterol) não foi diferente entre os grupos. De acordo com o algoritmo de Framingham, os vegetarianos apresentaram menor risco cardiovascular (p<0,001). CONCLUSÃO: A alimentação onívora desbalanceada, com excesso de proteínas e gorduras de origem animal, pode estar implicada, em grande parte, no desencadeamento de doenças e agravos não-transmissíveis, especialmente no risco cardiovascular.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La verificación y el análisis de programas con características probabilistas es una tarea necesaria del quehacer científico y tecnológico actual. El éxito y su posterior masificación de las implementaciones de protocolos de comunicación a nivel hardware y soluciones probabilistas a problemas distribuidos hacen más que interesante el uso de agentes estocásticos como elementos de programación. En muchos de estos casos el uso de agentes aleatorios produce soluciones mejores y más eficientes; en otros proveen soluciones donde es imposible encontrarlas por métodos tradicionales. Estos algoritmos se encuentran generalmente embebidos en múltiples mecanismos de hardware, por lo que un error en los mismos puede llegar a producir una multiplicación no deseada de sus efectos nocivos.Actualmente el mayor esfuerzo en el análisis de programas probabilísticos se lleva a cabo en el estudio y desarrollo de herramientas denominadas chequeadores de modelos probabilísticos. Las mismas, dado un modelo finito del sistema estocástico, obtienen de forma automática varias medidas de performance del mismo. Aunque esto puede ser bastante útil a la hora de verificar programas, para sistemas de uso general se hace necesario poder chequear especificaciones más completas que hacen a la corrección del algoritmo. Incluso sería interesante poder obtener automáticamente las propiedades del sistema, en forma de invariantes y contraejemplos.En este proyecto se pretende abordar el problema de análisis estático de programas probabilísticos mediante el uso de herramientas deductivas como probadores de teoremas y SMT solvers. Las mismas han mostrado su madurez y eficacia en atacar problemas de la programación tradicional. Con el fin de no perder automaticidad en los métodos, trabajaremos dentro del marco de "Interpretación Abstracta" el cual nos brinda un delineamiento para nuestro desarrollo teórico. Al mismo tiempo pondremos en práctica estos fundamentos mediante implementaciones concretas que utilicen aquellas herramientas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En nuestro proyecto anterior aproximamos el cálculo de una integral definida con integrandos de grandes variaciones funcionales. Nuestra aproximación paraleliza el algoritmo de cómputo de un método adaptivo de cuadratura, basado en reglas de Newton-Cote. Los primeros resultados obtenidos fueron comunicados en distintos congresos nacionales e internacionales; ellos nos permintieron comenzar con una tipificación de las reglas de cuadratura existentes y una clasificación de algunas funciones utilizadas como funciones de prueba. Estas tareas de clasificación y tipificación no las hemos finalizado, por lo que pretendemos darle continuidad a fin de poder informar sobre la conveniencia o no de utilizar nuestra técnica. Para llevar adelante esta tarea se buscará una base de funciones de prueba y se ampliará el espectro de reglas de cuadraturas a utilizar. Además, nos proponemos re-estructurar el cálculo de algunas rutinas que intervienen en el cómputo de la mínima energía de una molécula. Este programa ya existe en su versión secuencial y está modelizado utilizando la aproximación LCAO. El mismo obtiene resultados exitosos en cuanto a precisión, comparado con otras publicaciones internacionales similares, pero requiere de un tiempo de cálculo significativamente alto. Nuestra propuesta es paralelizar el algoritmo mencionado abordándolo al menos en dos niveles: 1- decidir si conviene distribuir el cálculo de una integral entre varios procesadores o si será mejor distribuir distintas integrales entre diferentes procesadores. Debemos recordar que en los entornos de arquitecturas paralelas basadas en redes (típicamente redes de área local, LAN) el tiempo que ocupa el envío de mensajes entre los procesadores es muy significativo medido en cantidad de operaciones de cálculo que un procesador puede completar. 2- de ser necesario, paralelizar el cálculo de integrales dobles y/o triples. Para el desarrollo de nuestra propuesta se desarrollarán heurísticas para verificar y construir modelos en los casos mencionados tendientes a mejorar las rutinas de cálculo ya conocidas. A la vez que se testearán los algoritmos con casos de prueba. La metodología a utilizar es la habitual en Cálculo Numérico. Con cada propuesta se requiere: a) Implementar un algoritmo de cálculo tratando de lograr versiones superadoras de las ya existentes. b) Realizar los ejercicios de comparación con las rutinas existentes para confirmar o desechar una mejor perfomance numérica. c) Realizar estudios teóricos de error vinculados al método y a la implementación. Se conformó un equipo interdisciplinario integrado por investigadores tanto de Ciencias de la Computación como de Matemática. Metas a alcanzar Se espera obtener una caracterización de las reglas de cuadratura según su efectividad, con funciones de comportamiento oscilatorio y con decaimiento exponencial, y desarrollar implementaciones computacionales adecuadas, optimizadas y basadas en arquitecturas paralelas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

FUNDAMENTO: As diretrizes nacionais e internacionais enfatizam a importância do tratamento eficaz da hipertensão arterial. Apesar disso, verificam-se baixos índices de controle e alcance das metas preconizadas, indicando que é importante planejar e implementar melhores estratégias de tratamento. OBJETIVO: Avaliar a eficácia de um tratamento, em escalonamento de doses, tendo como base a olmesartana medoxomila. MÉTODOS: Este é um estudo aberto, nacional, multicêntrico e prospectivo, de 144 pacientes com hipertensão arterial primária nos estágios 1 e 2, virgens de tratamento ou após período de washout de duas a três semanas para aqueles em tratamento ineficaz. Avaliou-se o uso da olmesartana medoxomila num algoritmo de tratamento, em quatro fases: (i) monoterapia (20 mg), (ii-iii) associada à hidroclorotiazida (20/12,5 mg e 40/25 mg) e (iv) adição de besilato de anlodipino (40/25 mg + 5 mg). RESULTADOS: Ao fim do tratamento, em escalonamento, 86% dos sujeitos de pesquisa alcançaram a meta de pressão arterial (PA) < 130/85 mmHg. Ocorreram reduções na pressão arterial sistólica (PAS) e na pressão arterial diastólica (PAD) de, no máximo, -44,4 mmHg e -20,0 mmHg, respectivamente. A taxa dos respondedores sistólicos (PAS > 20 mmHg) foi de 87,5% e diastólicos (PAD > 10 mmHg) de 92,4%. CONCLUSÃO: O estudo se baseou em um esquema de tratamento semelhante à abordagem terapêutica da prática clínica diária e mostrou que o uso da olmesartana medoxomila, em monoterapia ou em associação a hidroclorotiazida e anlodipino, foi eficaz para o alcance de meta para hipertensos dos estágios 1 e 2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En dispositivos electrónicos de última generación destinados a funciones de comunicación o control automático, los algoritmos de procesamiento digital de señales trasladados al hardware han ocupado un lugar fundamental. Es decir el estado de arte en el área de las comunicaciones y control puede resumirse en algoritmos basados en procesamiento digital de señales. Las implementaciones digitales de estos algoritmos han sido estudiadas en áreas de la informática desde hace tiempo. Sin embargo, aunque el incremento en la complejidad de los algoritmos modernos permite alcanzar desempeños atractivos en aplicaciones específicas, a su vez impone restricciones en la velocidad de operación que han motivado el diseño directamente en hardware de arquitecturas para alto rendimiento. En este contexto, los circuitos electrónicos basados en lógica programable, principalmente los basados en FPGA (Field-Programmable Gate Array), permiten obtener medidas de desempeño altamente confiables que proporcionan el acercamiento necesario hacia el diseño electrónico de circuitos para aplicaciones específicas “ASIC-VLSI” (Application Specific Integrated Circuit - Very Large Scale Integration). En este proyecto se analiza el diseño y la implementación de aquitecturas electrónicas para el procesamiento digital de señales, con el objeto de obtener medidas reales sobre el comportamiento del canal inalámbrico y su influencia sobre la estimación y el control de trayectoria en vehículos aéreos no tripulados (UAV, Unmanned Aerial Vehicle). Para esto se propone analizar un dispositivo híbrido basado en microcontroladores y circuitos FPGA y sobre este mismo dispositivo implementar mediante algoritmo un control de trayectoria que permita mantener un punto fijo en el centro del cuadro de una cámara de video a bordo de un UAV, que sea eficiente en términos de velocidad de operación, dimensiones y consumo de energía.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware. Today´s advances in high-performance computing are driven by parallel processing capabilities of available hardware architectures. These architectures enable the acceleration of algorithms when thes ealgorithms are properly parallelized and exploit the specific processing power of the underneath architecture. Most current processors are targeted for general pruposes and integrate several processor cores on a single chip, resulting in what is known as a Symmetric Multiprocessing (SMP) unit. Nowadays even desktop computers make use of multicore processors. Meanwhile, the industry trend is to increase the number of integrated rocessor cores as technology matures. On the other hand, Graphics Processor Units (GPU), originally designed to handle only video processing, have emerged as interesting alternatives to implement algorithm acceleration. Current available GPUs are able to implement from 200 to 400 threads for parallel processing. Scientific computing can be implemented in these hardware thanks to the programability of new GPUs that have been denoted as General Processing Graphics Processor Units (GPGPU).However, GPGPU offer little memory with respect to that available for general-prupose processors; thus, the implementation of algorithms need to be addressed carefully. Finally, Field Programmable Gate Arrays (FPGA) are programmable devices which can implement hardware logic with low latency, high parallelism and deep pipelines. Thes devices can be used to implement specific algorithms that need to run at very high speeds. However, their programmability is harder that software approaches and debugging is typically time-consuming. In this context where several alternatives for speeding up algorithms are available, our work aims at determining the main features of thes architectures and developing the required know-how to accelerate algorithm execution on them. We look at identifying those algorithms that may fit better on a given architecture as well as compleme

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto se enmarca en la utlización de métodos formales (más precisamente, en la utilización de teoría de tipos) para garantizar la ausencia de errores en programas. Por un lado se plantea el diseño de nuevos algoritmos de chequeo de tipos. Para ello, se proponen nuevos algoritmos basados en la idea de normalización por evaluación que sean extensibles a otros sistemas de tipos. En el futuro próximo extenderemos resultados que hemos conseguido recientemente [16,17] para obtener: una simplificación de los trabajos realizados para sistemas sin regla eta (acá se estudiarán dos sistemas: a la Martin Löf y a la PTS), la formulación de estos chequeadores para sistemas con variables, generalizar la noción de categoría con familia utilizada para dar semántica a teoría de tipos, obtener una formulación categórica de la noción de normalización por evaluación y finalmente, aplicar estos algoritmos a sistemas con reescrituras. Para los primeros resultados esperados mencionados, nos proponemos como método adaptar las pruebas de [16,17] a los nuevos sistemas. La importancia radica en que permitirán tornar más automatizables (y por ello, más fácilmente utilizables) los asistentes de demostración basados en teoría de tipos. Por otro lado, se utilizará la teoría de tipos para certificar compiladores, intentando llevar adelante la propuesta nunca explorada de [22] de utilizar un enfoque abstracto basado en categorías funtoriales. El método consistirá en certificar el lenguaje "Peal" [29] y luego agregar sucesivamente funcionalidad hasta obtener Forsythe [23]. En este período esperamos poder agregar varias extensiones. La importancia de este proyecto radica en que sólo un compilador certificado garantiza que un programa fuente correcto se compile a un programa objeto correcto. Es por ello, crucial para todo proceso de verificación que se base en verificar código fuente. Finalmente, se abordará la formalización de sistemas con session types. Los mismos han demostrado tener fallas en sus formulaciones [30], por lo que parece conveniente su formalización. Durante la marcha de este proyecto, esperamos tener alguna formalización que dé lugar a un algoritmo de chequeo de tipos y a demostrar las propiedades usuales de los sistemas. La contribución es arrojar un poco de luz sobre estas formulaciones cuyos errores revelan que el tema no ha adquirido aún suficiente madurez o comprensión por parte de la comunidad. This project is about using type theory to garantee program correctness. It follows three different directions: 1) Finding new type-checking algorithms based on normalization by evaluation. First, we would show that recent results like [16,17] extend to other type systems like: Martin-Löf´s type theory without eta rule, PTSs, type systems with variables (in addition to systems in [16,17] which are a la de Bruijn), systems with rewrite rules. This will be done by adjusting the proofs in [16,17] so that they apply to such systems as well. We will also try to obtain a more general definition of categories with families and normalization by evaluation, formulated in categorical terms. We expect this may turn proof-assistants more automatic and useful. 2) Exploring the proposal in [22] to compiler construction for Algol-like languages using functorial categories. According to [22] such approach is suitable for verifying compiler correctness, claim which was never explored. First, the language Peal [29] will be certified in type theory and we will gradually add funtionality to it until a correct compiler for the language Forsythe [23] is obtained. 3) Formilizing systems for session types. Several proposals have shown to be faulty [30]. This means that a formalization of it may contribute to the general understanding of session types.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A ressuscitação cardiocerebral (RCC) é uma nova abordagem à ressuscitação de pacientes com parada cardíaca fora do hospital (PCFH). O primeiro componente principal da RCC são as compressões torácicas contínuas (CTC), também chamadas de RCP com compressões torácicas isoladas ou "RCP somente com compressões torácicas" ("Hands-only" CPR), recomendadas como parte da RCC por todos os observadores que testemunhem um colapso súbito de origem presumidamente cardíaco. O segundo componente é um novo algoritmo de tratamento de Suporte Avançado de Vida em Cardiologia (ACLS) para Serviços Médicos de Emergência (SME). Esse algoritmo enfatiza compressões torácicas ininterruptas a despeito de outros procedimentos contínuos como parte do esforço de resgate. Um terceiro componente foi recentemente adicionado à RCC, e é o cuidado agressivo pós-ressuscitação. A RCC tem aumentado a participação de testemunhas e tem melhorado as taxas de sobrevivência em varias comunidades. Essa é a hora para outras comunidades re-examinarem seus próprios desfechos com parada cardíaca e considerar a possibilidade de se juntar a essas cidades e comunidades que dobraram e até mesmo triplicaram as suas taxas de sobrevivência de PCFH.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

FUNDAMENTO: Técnicas de imageamento in vivo permitem avaliar sequencialmente a morfologia e a função dos órgãos em diversos modelos experimentais. Desenvolvemos um dispositivo de adaptação de uma gama-câmara clínica para obter imagens tomográficas por emissão de fótons singulares (SPECT) de alta resolução, baseado em colimador pinhole. OBJETIVO: Determinar a acurácia desse sistema na quantificação da área de infarto miocárdico em ratos. MÉTODOS: Treze ratos Wistar machos (250 g) foram submetidos a infarto do miocárdio por oclusão da artéria coronária esquerda. Após 4 semanas, foram adquiridas imagens tomográficas com o sistema desenvolvido, 1,5 hora após a injeção endovenosa de 555MBq de 99mTc-Sestamibi. Na reconstrução tomográfica, utilizamos software especialmente desenvolvido baseado no algoritmo de Máxima Verossimilhança. Comparamos as médias e analisamos a correlação entre a extensão dos defeitos perfusionais detectados pela cintilografia e a extensão da fibrose miocárdica avaliada pela histologia. RESULTADOS: As imagens apresentaram ótima relação órgão-alvo/fundo, com apropriada visualização das paredes e da cavidade do ventrículo esquerdo. Todos os animais exibindo áreas de infarto foram corretamente identificados pelas imagens de perfusão. Não houve diferença entre a área do infarto medida pelo SPECT (21,1 ± 21,2%) e pela histologia (21,7 ± 22,0%; p = 0,45), obtendo forte correlação entre os valores da área de infarto mensurada pelos dois métodos (r = 0,99; p < 0,0001). CONCLUSÃO: O sistema desenvolvido apresentou resolução espacial adequada e elevada acurácia para detecção e quantificação das áreas de infarto miocárdico, sendo uma opção de baixo custo e grande versatilidade na obtenção de imagens em SPECT de alta resolução de órgãos de pequenos roedores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

FUNDAMENTO: O fenômeno da isquemia e reperfusão intestinal é um evento frequente na clínica e está associado a repercussões deletérias em órgãos a distância, em especial ao coração. OBJETIVO: Investigar a expressão gênica do estresse oxidativo e defesa antioxidante no coração de camundongos isogênicos, submetidos a isquemia e reperfusão intestinal (IR). MÉTODOS: Doze camundongos (C57BL/6) foram distribuídos em dois grupos: Grupo IR (GIR) com 60 min de oclusão da artéria mesentérica superior, seguidos de 60 min de reperfusão. Grupo Controle (GC) submetidos a anestesia e a laparotomia sem o procedimento de IR observados por 120 min. As amostras de intestino e coração foram processadas pelo método (RT-qPCR / Reverse transcriptase - quantitative Polymerase Chain Reaction) para determinar a expressão gênica de 84 genes relacionados ao estresse oxidativo ("t" de Student, p < 0,05). RESULTADOS: Observou-se no tecido intestinal (GIR) uma expressão significantemente aumentada em 65 (74,71%) genes em relação ao tecido normal (GC), e 37 (44,04%) genes estiveram hiperexpressos (maior que três vezes o limiar permitido pelo algoritmo). No tocante aos efeitos da I/R intestinal a distância no tecido cardíaco verificou-se a expressão significantemente aumentada de 28 genes (33,33%), mas somente oito genes (9,52%) se hiperexpressaram três vezes acima do limiar. Quatro (7,14%) desses oito genes se expressaram simultaneamente nos tecidos intestinal e cardíaco. No GIR notaram-se cardiomiócitos com núcleos de menor tamanho, picnóticos, ricos em heterocromatina e raros nucléolos, indicando sofrimento cardíaco. CONCLUSÃO: A I/R intestinal promoveu a hiperexpressão estatisticamente significante de oito genes associados ao estresse oxidativo a distância no tecido miocárdico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma das maiores ameaças à diversidade biológica é a perda de hábitat, de modo que uma das alternativas para proteção da biodiversidade é a seleção de reservas pela utilização de procedimentos de otimização para estabelecer áreas prioritárias para conservação. Neste estudo, um algoritmo simulated annealing foi usado para verificar como a periferia das distribuições das espécies influencia na seleção de áreas no Cerrado para conservação de 131 espécies de anfíbios anuros. Dois conjuntos de dados foram analisados, um contendo a distribuição original das espécies e outro excluindo a periferia das distribuições. As redes ótimas encontradas a partir das distribuições originais contiveram 17 quadrículas enquanto aquelas encontradas a partir das distribuições restritas foram maiores, com 22 células. As células com alto grau de insubstituibilidade foram mantidas em todas as redes e novas regiões de células substituíveis, localizadas na margem do bioma, surgiram quando apenas as distribuições reduzidas foram usadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudio elaborado a partir de una estancia en el Karolinska University Hospital, Suecia, entre marzo y junio del 2006. En la radioterapia estereotáxica extracraneal (SBRT) de tumores de pulmón existen principalmente dos problemas en el cálculo de la dosis con los sistemas de planificación disponibles: la precisión limitada de los algoritmos de cálculo en presencia de tejidos con densidades muy diferentes y los movimientos debidos a la respiración del paciente durante el tratamiento. El objetivo de este trabajo ha sido llevar a cabo la simulación con el código Monte Carlo PENELOPE de la distribución de dosis en tumores de pulmón en casos representativos de tratamientos con SBRT teniendo en cuenta los movimientos respiratorios y su comparación con los resultados de varios planificadores. Se han estudiado casos representativos de tratamientos de SBRT en el Karolinska University Hospital. Los haces de radiación se han simulado mediante el código PENELOPE y se han usado para la obtención de los resultados MC de perfiles de dosis. Los resultados obtenidos para el caso estático (sin movimiento respiratorio ) ponen de manifiesto que, en comparación con la MC, la dosis (Gy/MU) calculada por los planificadores en el tumor tiene una precisión del 2-3%. En la zona de interfase entre tumor y tejido pulmonar los planificadores basados en el algoritmo PB sobrestiman la dosis en un 10%, mientras que el algoritmo CC la subestima en un 3-4%. Los resultados de la simulación mediante MC de los movimientos respiratorios indican que los resultados de los planificadores son suficientemente precisos en el tumor, aunque en la interfase hay una mayor subestimación de la dosis en comparación con el caso estático. Estos resultados son compatibles con la experiencia clínica adquirida durante 15 años en el Karolinska University Hospital. Los resultados se han publicado en la revista Acta Oncologica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es proposa mètodes per a millorar la qualitat de predicció d'Incendis forestals per mitjà de combinació d'estratègies basades en guia de dades. Els simuladors de foc són implementacions de models físics i matemàtics que són abstraccions de la realitat i per a funcionar necessiten paràmetres difícils de mesurar i/o amb un comportament dinàmic en el temps. Utilitzant Còmput d'Altes Prestacions apliquem algorismes evolutius reduint l'espai de cerca dels valors que posteriorment s'integren en un conjunt de possibilitats. Els resultats presenten adaptació al canvi de condicions de l'incendi que serveix de base per a generar una aplicación de temps real.