991 resultados para Algoritmo DSM
Resumo:
OBJETIVO: Avaliar os efeitos da estimulação atrial otimizada (EAO) (estimulação duplo-sítio atrial, freqüência acima da intrínseca e algoritmo funcional específico) e uso de atenolol, na prevenção da fibrilação atrial (FA) recorrente. Desfecho primário: quantificar a taxa de episódios de FA. Desfechos secundários: qualidade de vida, avaliação de sintomas específicos cardiovasculares, taxa de internações hospitalares, taxa de cardioversões elétricas e farmacológicas e eventos cardíacos adversos. MÉTODOS: Vinte e sete pacientes com FA paroxística recorrente e doença do nó sinusal foram submetidos ao implante de marcapasso duplo-sítio atrial e ventricular e iniciaram com atenolol 100 mg/dia, a seguir foram randomizados em dois grupos, grupo I (3 meses iniciais com EAO e algoritmo especifico ligado e mais 3 com o mesmo desligado) e grupo II (seqüência inversa do grupo I). O modo de estimulação foi DDDR e após 3 meses, foram submetidos à avaliação clínica e eletrônica do sistema de estimulação - mudança automática de modo (AMS), Holter de 24 horas, ecocardiograma e questionário SF-36. Em seguida, foram cruzados e após 6 meses, nova avaliação. RESULTADOS: Pacientes com EAO, quando comparados ao grupo com algoritmo desligado, apresentaram menores taxas de: FA/semana (p<0,001), ativações do AMS (p<0,01), hospitalizações (p<0,001), cardioversões (p<0,001), além de melhores índices dos componentes físico e mental da qualidade de vida. CONCLUSÃO: A terapêutica híbrida, EAO associada ao uso de atenolol, reduziu a taxa de recorrência de FA e proporcionou melhora clínico funcional de pacientes com bradiarritmias sintomáticas.
Resumo:
Las tareas de investigación involucran tres subproyectos interdependientes: A. Caracterización de muestras extensas. B. Caracterización de muestras delgadas y multiminares. C. Caracterización de partículas y aplicación a la contaminación ambiental. Se prevé utilizar la técnica de Monte Carlo para predecir espectros de FRX con sistema dispersivo en energías. Este mismo método será utilizado para describir la distribución angular de los electrones retrodifundidos para incidencia normal y no normal, y también para mejorar la descripción de la función distribución de ionizaciones f(pz) utilizando secciones eficaces realistas. Paralelamente, se desarrollarán modelos de los parámetros fo, go y h que determinan la función distribución de ionizaciones f(pz). Del mismo modo, se estudiará la caracterización de muestras delgadas y estratificadas. Para ello se realizarán simulaciones Monte Carlo utilizando los resultados previstos en el párrafo anterior y se harán determinaciones experimentales con la microsonda electrónica de sistemas multilaminares simples y multicomponentes. Se extenderán las aplicaciones del programa MULTI desarrollado en nuestro grupo para cuantificación de muestras extensas, láminas delgadas y partículas. En este sentido se implementará un algoritmo para cuantificar muestras con picos no detectables, se evaluarán los errores en las concentraciones calculadas y se incluirá el reforzamiento por fluorescencia con las líneas K beta. Por otro lado, se implementará de un método de procesamiento de datos para el análisis de partículas en EPMA y su aplicación al estudio de la contaminación ambiental mediante el procesamiento de imágenes para la caracterización morfológica y química de partículas en suspensión, análisis de clusters. El objetivo final es la identificación y caracterización de fuentes de contaminación. Esta tarea será complementada con análisis global de la composición química en muestras de materia particulada mediante FRX, y el estudio de sus parámetros físicos mediante el método de simulación Monte Carlo. Se mejorará la estructura experimental de nuestro laboratorio poniendo en funcionamiento un microscopio electrónico Cambridge Stereoscan cedido por la Universidad de Barcelona conjuntamente con la capacidad analítica que ha sido adquirida para extender sus posibilidades de aplicación, y se instalará un equipo de FRX desarrollado en nuestro grupo con accesorios recientemente adquiridos. El desarrollo y solución de los problemas propuestos permitirá mejorar la formación integral de estudiantes en distintas etapas de su carrera de doctorado y recientemente doctorados, ya que presentan además de un aspecto básico, uno aplicado, pues tienden a la solución de situaciones concretas de interés biológico, ambiental y tecnológico.
Resumo:
FUNDAMENTO: Estudos clínicos e epidemiológicos demonstram grande associação da dieta com os agravos crônicos, particularmente com os eventos cardiovasculares, apesar de ainda não compreendidos todos os seus mecanismos de ação. OBJETIVO: Descrever e analisar o risco cardiovascular em vegetarianos e onívoros residentes na Grande Vitória/ES, na faixa etária de 35 a 64 anos. MÉTODOS: Para avaliação do risco cardiovascular foi realizado estudo de coorte histórico com 201 indivíduos. Foram incluídos 67 vegetarianos há no mínimo 5 anos, provenientes da Grande Vitória, e 134 onívoros, participantes do Projeto MONICA/Vitória, pareados por classe socioeconômica, sexo, idade e raça. Medidas bioquímicas e hemodinâmicas foram obtidas na Clínica de Investigação Cardiovascular da UFES. Para comparação de proporções, foi usado o teste chi2 e calculada a razão de prevalência. O risco cardiovascular foi calculado por meio do algoritmo de Framingham. RESULTADOS: A idade média do grupo foi de 47 ± 8 anos e o tempo médio de vegetarianismo 19 ± 10 anos, sendo a dieta ovolactovegetariana seguida por 73% dos vegetarianos. Pressão arterial, glicemia de jejum, colesterol total, colesterol de lipoproteína de baixa densidade (LDL-colesterol) e triglicerídeos foram mais baixos entre vegetarianos (p<0,001). O colesterol de lipoproteína de alta densidade (HDL-colesterol) não foi diferente entre os grupos. De acordo com o algoritmo de Framingham, os vegetarianos apresentaram menor risco cardiovascular (p<0,001). CONCLUSÃO: A alimentação onívora desbalanceada, com excesso de proteínas e gorduras de origem animal, pode estar implicada, em grande parte, no desencadeamento de doenças e agravos não-transmissíveis, especialmente no risco cardiovascular.
Resumo:
La verificación y el análisis de programas con características probabilistas es una tarea necesaria del quehacer científico y tecnológico actual. El éxito y su posterior masificación de las implementaciones de protocolos de comunicación a nivel hardware y soluciones probabilistas a problemas distribuidos hacen más que interesante el uso de agentes estocásticos como elementos de programación. En muchos de estos casos el uso de agentes aleatorios produce soluciones mejores y más eficientes; en otros proveen soluciones donde es imposible encontrarlas por métodos tradicionales. Estos algoritmos se encuentran generalmente embebidos en múltiples mecanismos de hardware, por lo que un error en los mismos puede llegar a producir una multiplicación no deseada de sus efectos nocivos.Actualmente el mayor esfuerzo en el análisis de programas probabilísticos se lleva a cabo en el estudio y desarrollo de herramientas denominadas chequeadores de modelos probabilísticos. Las mismas, dado un modelo finito del sistema estocástico, obtienen de forma automática varias medidas de performance del mismo. Aunque esto puede ser bastante útil a la hora de verificar programas, para sistemas de uso general se hace necesario poder chequear especificaciones más completas que hacen a la corrección del algoritmo. Incluso sería interesante poder obtener automáticamente las propiedades del sistema, en forma de invariantes y contraejemplos.En este proyecto se pretende abordar el problema de análisis estático de programas probabilísticos mediante el uso de herramientas deductivas como probadores de teoremas y SMT solvers. Las mismas han mostrado su madurez y eficacia en atacar problemas de la programación tradicional. Con el fin de no perder automaticidad en los métodos, trabajaremos dentro del marco de "Interpretación Abstracta" el cual nos brinda un delineamiento para nuestro desarrollo teórico. Al mismo tiempo pondremos en práctica estos fundamentos mediante implementaciones concretas que utilicen aquellas herramientas.
Resumo:
En nuestro proyecto anterior aproximamos el cálculo de una integral definida con integrandos de grandes variaciones funcionales. Nuestra aproximación paraleliza el algoritmo de cómputo de un método adaptivo de cuadratura, basado en reglas de Newton-Cote. Los primeros resultados obtenidos fueron comunicados en distintos congresos nacionales e internacionales; ellos nos permintieron comenzar con una tipificación de las reglas de cuadratura existentes y una clasificación de algunas funciones utilizadas como funciones de prueba. Estas tareas de clasificación y tipificación no las hemos finalizado, por lo que pretendemos darle continuidad a fin de poder informar sobre la conveniencia o no de utilizar nuestra técnica. Para llevar adelante esta tarea se buscará una base de funciones de prueba y se ampliará el espectro de reglas de cuadraturas a utilizar. Además, nos proponemos re-estructurar el cálculo de algunas rutinas que intervienen en el cómputo de la mínima energía de una molécula. Este programa ya existe en su versión secuencial y está modelizado utilizando la aproximación LCAO. El mismo obtiene resultados exitosos en cuanto a precisión, comparado con otras publicaciones internacionales similares, pero requiere de un tiempo de cálculo significativamente alto. Nuestra propuesta es paralelizar el algoritmo mencionado abordándolo al menos en dos niveles: 1- decidir si conviene distribuir el cálculo de una integral entre varios procesadores o si será mejor distribuir distintas integrales entre diferentes procesadores. Debemos recordar que en los entornos de arquitecturas paralelas basadas en redes (típicamente redes de área local, LAN) el tiempo que ocupa el envío de mensajes entre los procesadores es muy significativo medido en cantidad de operaciones de cálculo que un procesador puede completar. 2- de ser necesario, paralelizar el cálculo de integrales dobles y/o triples. Para el desarrollo de nuestra propuesta se desarrollarán heurísticas para verificar y construir modelos en los casos mencionados tendientes a mejorar las rutinas de cálculo ya conocidas. A la vez que se testearán los algoritmos con casos de prueba. La metodología a utilizar es la habitual en Cálculo Numérico. Con cada propuesta se requiere: a) Implementar un algoritmo de cálculo tratando de lograr versiones superadoras de las ya existentes. b) Realizar los ejercicios de comparación con las rutinas existentes para confirmar o desechar una mejor perfomance numérica. c) Realizar estudios teóricos de error vinculados al método y a la implementación. Se conformó un equipo interdisciplinario integrado por investigadores tanto de Ciencias de la Computación como de Matemática. Metas a alcanzar Se espera obtener una caracterización de las reglas de cuadratura según su efectividad, con funciones de comportamiento oscilatorio y con decaimiento exponencial, y desarrollar implementaciones computacionales adecuadas, optimizadas y basadas en arquitecturas paralelas.
Resumo:
FUNDAMENTO: As diretrizes nacionais e internacionais enfatizam a importância do tratamento eficaz da hipertensão arterial. Apesar disso, verificam-se baixos índices de controle e alcance das metas preconizadas, indicando que é importante planejar e implementar melhores estratégias de tratamento. OBJETIVO: Avaliar a eficácia de um tratamento, em escalonamento de doses, tendo como base a olmesartana medoxomila. MÉTODOS: Este é um estudo aberto, nacional, multicêntrico e prospectivo, de 144 pacientes com hipertensão arterial primária nos estágios 1 e 2, virgens de tratamento ou após período de washout de duas a três semanas para aqueles em tratamento ineficaz. Avaliou-se o uso da olmesartana medoxomila num algoritmo de tratamento, em quatro fases: (i) monoterapia (20 mg), (ii-iii) associada à hidroclorotiazida (20/12,5 mg e 40/25 mg) e (iv) adição de besilato de anlodipino (40/25 mg + 5 mg). RESULTADOS: Ao fim do tratamento, em escalonamento, 86% dos sujeitos de pesquisa alcançaram a meta de pressão arterial (PA) < 130/85 mmHg. Ocorreram reduções na pressão arterial sistólica (PAS) e na pressão arterial diastólica (PAD) de, no máximo, -44,4 mmHg e -20,0 mmHg, respectivamente. A taxa dos respondedores sistólicos (PAS > 20 mmHg) foi de 87,5% e diastólicos (PAD > 10 mmHg) de 92,4%. CONCLUSÃO: O estudo se baseou em um esquema de tratamento semelhante à abordagem terapêutica da prática clínica diária e mostrou que o uso da olmesartana medoxomila, em monoterapia ou em associação a hidroclorotiazida e anlodipino, foi eficaz para o alcance de meta para hipertensos dos estágios 1 e 2.
Resumo:
En dispositivos electrónicos de última generación destinados a funciones de comunicación o control automático, los algoritmos de procesamiento digital de señales trasladados al hardware han ocupado un lugar fundamental. Es decir el estado de arte en el área de las comunicaciones y control puede resumirse en algoritmos basados en procesamiento digital de señales. Las implementaciones digitales de estos algoritmos han sido estudiadas en áreas de la informática desde hace tiempo. Sin embargo, aunque el incremento en la complejidad de los algoritmos modernos permite alcanzar desempeños atractivos en aplicaciones específicas, a su vez impone restricciones en la velocidad de operación que han motivado el diseño directamente en hardware de arquitecturas para alto rendimiento. En este contexto, los circuitos electrónicos basados en lógica programable, principalmente los basados en FPGA (Field-Programmable Gate Array), permiten obtener medidas de desempeño altamente confiables que proporcionan el acercamiento necesario hacia el diseño electrónico de circuitos para aplicaciones específicas “ASIC-VLSI” (Application Specific Integrated Circuit - Very Large Scale Integration). En este proyecto se analiza el diseño y la implementación de aquitecturas electrónicas para el procesamiento digital de señales, con el objeto de obtener medidas reales sobre el comportamiento del canal inalámbrico y su influencia sobre la estimación y el control de trayectoria en vehículos aéreos no tripulados (UAV, Unmanned Aerial Vehicle). Para esto se propone analizar un dispositivo híbrido basado en microcontroladores y circuitos FPGA y sobre este mismo dispositivo implementar mediante algoritmo un control de trayectoria que permita mantener un punto fijo en el centro del cuadro de una cámara de video a bordo de un UAV, que sea eficiente en términos de velocidad de operación, dimensiones y consumo de energía.
Resumo:
El informe de la Organización Mundial de la Salud (2001), refiere que en un plazo de 20 años los trastornos mentales pasarán a ser la segunda causa dentro de la carga de morbilidad a nivel mundial, y en la actualidad una de cada cuatro personas padece de algún trastorno mental en alguna etapa de su vida. Los estudios realizados en diversos países revelan que una proporción importante de los consultantes de la atención primaria en salud presentan algún tipo de trastornos mentales. Desde esta perspectiva, la atención primaria de la salud ofrece una oportunidad de intervenir en el manejo de los trastornos mentales de forma temprana y eficaz. En Argentina, es limitada la información acerca del registro epidemiológico en salud mental, no contando con estudios abordados desde la Atención Primaria en la provincia de Córdoba. El objetivo general del proyecto es estimar la prevalencia de trastornos mentales entre los consultantes de atención primaria por problemas de salud general. Para ello se propone: Estimar la prevalencia de trastornos mentales en una muestra representativa de consultantes adultos por problemas de salud general, de centros de atención primaria de la ciudad de Córdoba, identificar y describir los tipos de trastornos mentales que presentan estos consultantes adultos de centros de atención primaria y analizar la prevalencia de los trastornos mentales por sexo y edad de la población en estudio. Metodología: el estudio se realizará en consultorios de Atención Primaria de Salud distribuídos en todo el éjido de la ciudad, teniendo en cuenta la representación de las 12 zonas de CPC. La muestra es probabilística, estratificada, polietápica de pacientes que consultan en el primer nivel de atención. Se entrevistarán 1200 pacientes utilizando la versión computorizada del CIDI 3.0, que proporciona diagnóstico de acuerdo a la DSM IV y la CIE-10. La confiabilidad y la validez del instrumento ha sido ampliamente documentada y la traducción de la encuesta al español fue realizada conforme a las recomendaciones de la OMS. El análisis efectuado será de prevalencia de Trastornos Mentales y del Comportamiento (TMC),asociación entre factores sociodemográficos y TCM estimados calculando las razones de disparidad (odds ratio), regresión logística a fin de ajustar los resultados por la posible interacción entre variables, análisis de la asociación de todas las variables con los TMC, análisis univariado de la asociación de cada variable con los TMC, controlando sexo y edad, se construirá un modelo de regresión logística. En todos los casos el nivel de significación será de 0,05. El equipo de trabajo, de cooperación internacional entre profesionales de la UNC y de la Universidad de Chile, y con la participación en colaboración de los profesionales dependientes de la Secretaría de Salud de la municipalidad de Córdoba, representa un avance para trabajar en los centros de salud de esta ciudad, constituyéndose en un avance, cualitativo y cuantitativo de la actividad científica en Atención Primaria en salud mental con abordaje epidemiológico. Se espera contribuir al conocimiento acerca de la prevalencia de los problemas de salud mental de esta población en la ciudad de Córdoba, proporcionando información a los funcionarios y responsables por la gestión de las áreas vinculadas a la salud mental, aportando conocimiento que promueva una temprana identificación de riesgos iniciales en salud mental y conductas de cuidado en la población como potencial de bienestar.Así mismo, se espera sistematizar una experiencia que pueda ser replicada en otros sitios geográficos. Por todo lo anterior, esta propuesta permitirá conocer por primera vez en la ciudad de Córdoba la frecuencia y características de los problemas de salud mental entre consultantes de Atención Primaria, información fundamental para el desarrollo posterior de estrategias que busquen mejorar la detección y el tratamiento de estos problemas. According to the WHO Report (2001), in 20 years, mental health disorders (MHDs) will be the world’s second most frequent cause of morbidity. Primary care offers the opportunity to handle MHDs efficiently at an early stage. In Argentina, the epidemiologic data on mental health (MH) is limited, and there are no records for Córdoba. The aim of this project is to assess the prevalence of MHDs among consultants who resort to primary health centers (PHCCs) in the city of Córdoba for common health problems, by using a representative sample of adult consultants, identifying and describing the types of MHDs evinced, and analysing prevalence by sex and age group under study. Methodology:the study will be carried out in PHCCs located in the municipal area of Córdoba, covering the 12 zones corresponding to the CPCs (municipal branch offices for each zone). A multi-stage stratified random sample of 1200 patients will be interviewed using the program CIDI 3.0 to produce a diagnostic according to DSM IV and CIE-10, a tool with proven reliability and validity.The aspects to be analysed are prevalence of mental and behavior disorders, their association with socio-demographic factors estimated by odds ratios, logistic regression for adjustment of potential interaction among variables, association with all variables, and univariate analysis for association with each variable. Significance level will be 0.05 in all cases. The international teamwork including professionals from the Universities of Córdoba, Chile and the Public Health Department of the Municipality of Córdoba constitutes a qualitative and quantitative step forward in the field of primary health care studies with an epidemiologic approach. This project aims at providing administrators in the MH area with data for the early detection of initial risks in MH and the promotion of prevention habits. This will be the first study conducted in Córdoba, and is aimed at facilitating replication in other geographical areas.
Resumo:
El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware. Today´s advances in high-performance computing are driven by parallel processing capabilities of available hardware architectures. These architectures enable the acceleration of algorithms when thes ealgorithms are properly parallelized and exploit the specific processing power of the underneath architecture. Most current processors are targeted for general pruposes and integrate several processor cores on a single chip, resulting in what is known as a Symmetric Multiprocessing (SMP) unit. Nowadays even desktop computers make use of multicore processors. Meanwhile, the industry trend is to increase the number of integrated rocessor cores as technology matures. On the other hand, Graphics Processor Units (GPU), originally designed to handle only video processing, have emerged as interesting alternatives to implement algorithm acceleration. Current available GPUs are able to implement from 200 to 400 threads for parallel processing. Scientific computing can be implemented in these hardware thanks to the programability of new GPUs that have been denoted as General Processing Graphics Processor Units (GPGPU).However, GPGPU offer little memory with respect to that available for general-prupose processors; thus, the implementation of algorithms need to be addressed carefully. Finally, Field Programmable Gate Arrays (FPGA) are programmable devices which can implement hardware logic with low latency, high parallelism and deep pipelines. Thes devices can be used to implement specific algorithms that need to run at very high speeds. However, their programmability is harder that software approaches and debugging is typically time-consuming. In this context where several alternatives for speeding up algorithms are available, our work aims at determining the main features of thes architectures and developing the required know-how to accelerate algorithm execution on them. We look at identifying those algorithms that may fit better on a given architecture as well as compleme
Resumo:
Este proyecto se enmarca en la utlización de métodos formales (más precisamente, en la utilización de teoría de tipos) para garantizar la ausencia de errores en programas. Por un lado se plantea el diseño de nuevos algoritmos de chequeo de tipos. Para ello, se proponen nuevos algoritmos basados en la idea de normalización por evaluación que sean extensibles a otros sistemas de tipos. En el futuro próximo extenderemos resultados que hemos conseguido recientemente [16,17] para obtener: una simplificación de los trabajos realizados para sistemas sin regla eta (acá se estudiarán dos sistemas: a la Martin Löf y a la PTS), la formulación de estos chequeadores para sistemas con variables, generalizar la noción de categoría con familia utilizada para dar semántica a teoría de tipos, obtener una formulación categórica de la noción de normalización por evaluación y finalmente, aplicar estos algoritmos a sistemas con reescrituras. Para los primeros resultados esperados mencionados, nos proponemos como método adaptar las pruebas de [16,17] a los nuevos sistemas. La importancia radica en que permitirán tornar más automatizables (y por ello, más fácilmente utilizables) los asistentes de demostración basados en teoría de tipos. Por otro lado, se utilizará la teoría de tipos para certificar compiladores, intentando llevar adelante la propuesta nunca explorada de [22] de utilizar un enfoque abstracto basado en categorías funtoriales. El método consistirá en certificar el lenguaje "Peal" [29] y luego agregar sucesivamente funcionalidad hasta obtener Forsythe [23]. En este período esperamos poder agregar varias extensiones. La importancia de este proyecto radica en que sólo un compilador certificado garantiza que un programa fuente correcto se compile a un programa objeto correcto. Es por ello, crucial para todo proceso de verificación que se base en verificar código fuente. Finalmente, se abordará la formalización de sistemas con session types. Los mismos han demostrado tener fallas en sus formulaciones [30], por lo que parece conveniente su formalización. Durante la marcha de este proyecto, esperamos tener alguna formalización que dé lugar a un algoritmo de chequeo de tipos y a demostrar las propiedades usuales de los sistemas. La contribución es arrojar un poco de luz sobre estas formulaciones cuyos errores revelan que el tema no ha adquirido aún suficiente madurez o comprensión por parte de la comunidad. This project is about using type theory to garantee program correctness. It follows three different directions: 1) Finding new type-checking algorithms based on normalization by evaluation. First, we would show that recent results like [16,17] extend to other type systems like: Martin-Löf´s type theory without eta rule, PTSs, type systems with variables (in addition to systems in [16,17] which are a la de Bruijn), systems with rewrite rules. This will be done by adjusting the proofs in [16,17] so that they apply to such systems as well. We will also try to obtain a more general definition of categories with families and normalization by evaluation, formulated in categorical terms. We expect this may turn proof-assistants more automatic and useful. 2) Exploring the proposal in [22] to compiler construction for Algol-like languages using functorial categories. According to [22] such approach is suitable for verifying compiler correctness, claim which was never explored. First, the language Peal [29] will be certified in type theory and we will gradually add funtionality to it until a correct compiler for the language Forsythe [23] is obtained. 3) Formilizing systems for session types. Several proposals have shown to be faulty [30]. This means that a formalization of it may contribute to the general understanding of session types.
Resumo:
FUNDAMENTO: A prevalência de depressão em portadores de doença arterial coronariana (DAC) é alta. A escala de depressão geriátrica (EDG) é um instrumento amplamente usado para rastrear a depressão em idosos. No Brasil, as propriedades psicométricas da versão curta ainda não foram adequadamente exploradas. OBJETIVO: Avaliar as propriedades psicométricas da versão curta da EDG em portadores de DAC em ambulatório de cardiologia. MÉTODOS: Estudo transversal que avaliou 209 idosos (≥ 65 anos) com DAC utilizando a EDG-15, Cumulative Illness Rating Scale for Geriatrics (CIRS), Brazilian OARS Multidimensional Function Assessment Questionnaire (BOMFAQ) e The Cambridge Examination for Mental Disorders of the Elderly (CAMDEX). A consistência interna da EDG-15 foi calculada pelo KR-20. Uma análise fatorial dessa escala foi conduzida. Escores da EDG-15 foram comparados com os diagnósticos de depressão (DSM-IV) para a validade de critérios. Na análise de validade concorrente, os mesmos escores foram correlacionados com os das escalas de depressão CAMDEX, Miniexame do Estado Mental (MEEM), Cambridge Cognitive Examination (CAMCOG) e BOMFAQ. RESULTADOS: A depressão clínica foi diagnosticada em 35,71% da amostra avaliada de acordo com o DSM-IV. Para o diagnóstico de depressão maior ou distimia, o ponto de corte 5/6 apresentou acurácia moderada (AUROC = 0,84), sensibilidade de 79,92% e especificidade de 78,29%. A consistência interna foi de 0,80. Na análise fatorial, três fatores obtidos explicaram 52,72% da variância total observada. Os escores da EDG-15 correlacionaram-se com os da escala de depressão CAMDEX. CONCLUSÃO: No geral, a EDG-15 apresentou boa confiabilidade e validade (concorrente e de critério). Em settings cardiológicos, seu uso pode auxiliar no rastreamento de quadros depressivos de forma simples e rápida.
Resumo:
A ressuscitação cardiocerebral (RCC) é uma nova abordagem à ressuscitação de pacientes com parada cardíaca fora do hospital (PCFH). O primeiro componente principal da RCC são as compressões torácicas contínuas (CTC), também chamadas de RCP com compressões torácicas isoladas ou "RCP somente com compressões torácicas" ("Hands-only" CPR), recomendadas como parte da RCC por todos os observadores que testemunhem um colapso súbito de origem presumidamente cardíaco. O segundo componente é um novo algoritmo de tratamento de Suporte Avançado de Vida em Cardiologia (ACLS) para Serviços Médicos de Emergência (SME). Esse algoritmo enfatiza compressões torácicas ininterruptas a despeito de outros procedimentos contínuos como parte do esforço de resgate. Um terceiro componente foi recentemente adicionado à RCC, e é o cuidado agressivo pós-ressuscitação. A RCC tem aumentado a participação de testemunhas e tem melhorado as taxas de sobrevivência em varias comunidades. Essa é a hora para outras comunidades re-examinarem seus próprios desfechos com parada cardíaca e considerar a possibilidade de se juntar a essas cidades e comunidades que dobraram e até mesmo triplicaram as suas taxas de sobrevivência de PCFH.
Resumo:
FUNDAMENTO: A fibrilação atrial é um fator de risco controverso para demência. OBJETIVO: O objetivo deste estudo é avaliar a associação entre fibrilação atrial e demência em participantes do São Paulo Ageing & Health. MÉTODOS: O São Paulo Ageing & Health é um estudo transversal, de base populacional, de idosos residentes em um uma região de baixa renda da cidade de São Paulo, Brasil. Diagnóstico de demência foi realizado de acordo com o protocolo do grupo 10/66, com base em critérios do Manual de Diagnóstico e Estatística das Perturbações Mentais (DSM-IV). O diagnóstico de fibrilação atrial foi feito por eletrocardiograma de 12 derivações, avaliado por dois cardiologistas. Dados demográficos e de fatores de risco cardiovasculares também foram obtidos. RESULTADOS: A demência foi diagnosticada em 66 (4,3%) e fibrilação atrial em 36 (2,4%) de 1.524 participantes com um eletrocardiograma válido. A razão de chances bruta para demência em participantes com fibrilação atrial foi 2,8 (intervalo de confiança [IC] 95%: 1,0-8,1; p = 0,06) em comparação com indivíduos sem fibrilação atrial. Relação positiva foi encontrada em mulheres (RC 4,2; IC 95%: 1,2-15,1; p = 0,03). Após ajuste para idade, no entanto, essa associação tornou-se não significativa (RC 2,2, IC 95%: 0,6-8,9; p = 0,26). CONCLUSÃO: Não houve associação independente entre a fibrilação atrial e demência nessa amostra. A prevalência da fibrilação atrial pode ser baixa nesta população em virtude da mortalidade cardiovascular prematura.
Resumo:
FUNDAMENTO: Técnicas de imageamento in vivo permitem avaliar sequencialmente a morfologia e a função dos órgãos em diversos modelos experimentais. Desenvolvemos um dispositivo de adaptação de uma gama-câmara clínica para obter imagens tomográficas por emissão de fótons singulares (SPECT) de alta resolução, baseado em colimador pinhole. OBJETIVO: Determinar a acurácia desse sistema na quantificação da área de infarto miocárdico em ratos. MÉTODOS: Treze ratos Wistar machos (250 g) foram submetidos a infarto do miocárdio por oclusão da artéria coronária esquerda. Após 4 semanas, foram adquiridas imagens tomográficas com o sistema desenvolvido, 1,5 hora após a injeção endovenosa de 555MBq de 99mTc-Sestamibi. Na reconstrução tomográfica, utilizamos software especialmente desenvolvido baseado no algoritmo de Máxima Verossimilhança. Comparamos as médias e analisamos a correlação entre a extensão dos defeitos perfusionais detectados pela cintilografia e a extensão da fibrose miocárdica avaliada pela histologia. RESULTADOS: As imagens apresentaram ótima relação órgão-alvo/fundo, com apropriada visualização das paredes e da cavidade do ventrículo esquerdo. Todos os animais exibindo áreas de infarto foram corretamente identificados pelas imagens de perfusão. Não houve diferença entre a área do infarto medida pelo SPECT (21,1 ± 21,2%) e pela histologia (21,7 ± 22,0%; p = 0,45), obtendo forte correlação entre os valores da área de infarto mensurada pelos dois métodos (r = 0,99; p < 0,0001). CONCLUSÃO: O sistema desenvolvido apresentou resolução espacial adequada e elevada acurácia para detecção e quantificação das áreas de infarto miocárdico, sendo uma opção de baixo custo e grande versatilidade na obtenção de imagens em SPECT de alta resolução de órgãos de pequenos roedores.
Resumo:
FUNDAMENTO: O fenômeno da isquemia e reperfusão intestinal é um evento frequente na clínica e está associado a repercussões deletérias em órgãos a distância, em especial ao coração. OBJETIVO: Investigar a expressão gênica do estresse oxidativo e defesa antioxidante no coração de camundongos isogênicos, submetidos a isquemia e reperfusão intestinal (IR). MÉTODOS: Doze camundongos (C57BL/6) foram distribuídos em dois grupos: Grupo IR (GIR) com 60 min de oclusão da artéria mesentérica superior, seguidos de 60 min de reperfusão. Grupo Controle (GC) submetidos a anestesia e a laparotomia sem o procedimento de IR observados por 120 min. As amostras de intestino e coração foram processadas pelo método (RT-qPCR / Reverse transcriptase - quantitative Polymerase Chain Reaction) para determinar a expressão gênica de 84 genes relacionados ao estresse oxidativo ("t" de Student, p < 0,05). RESULTADOS: Observou-se no tecido intestinal (GIR) uma expressão significantemente aumentada em 65 (74,71%) genes em relação ao tecido normal (GC), e 37 (44,04%) genes estiveram hiperexpressos (maior que três vezes o limiar permitido pelo algoritmo). No tocante aos efeitos da I/R intestinal a distância no tecido cardíaco verificou-se a expressão significantemente aumentada de 28 genes (33,33%), mas somente oito genes (9,52%) se hiperexpressaram três vezes acima do limiar. Quatro (7,14%) desses oito genes se expressaram simultaneamente nos tecidos intestinal e cardíaco. No GIR notaram-se cardiomiócitos com núcleos de menor tamanho, picnóticos, ricos em heterocromatina e raros nucléolos, indicando sofrimento cardíaco. CONCLUSÃO: A I/R intestinal promoveu a hiperexpressão estatisticamente significante de oito genes associados ao estresse oxidativo a distância no tecido miocárdico.