1000 resultados para métodos de imagem
Resumo:
FUNDAMENTO: Buscando delinear o perfil da ablação curativa de fibrilação atrial (FA) no Brasil, a Sociedade Brasileira de Arritmias Cardíacas (SOBRAC) idealizou o Registro Brasileiro de Ablação da FA. OBJETIVO: Descrever os resultados desse registro. MÉTODOS: Foi enviado um formulário aos sócios da SOBRAC, inquirindo sobre os dados de pacientes submetidos a ablação de FA entre setembro de 2005 e novembro de 2006. RESULTADOS: No total, 29 grupos, de 13 Estados, responderam ao formulário. Desses, 22 (76%) realizaram ablações de FA. Entre 1998 e 2001, 7 grupos (32%) iniciaram ablações de FA e entre 2002 e 2006, 15 grupos (68%). De 1998 a 2006, 2.374 pacientes foram submetidos a ablação, sendo 755 (32%) no período do registro. A maioria (70%) era do sexo masculino e 89% apresentavam FA paroxística ou persistente. Métodos auxiliares de imagem (ecocardiografia intracardíaca e mapeamento eletroanatômico) foram utilizados por 9 grupos (41%). Durante seguimento médio de cinco meses, o sucesso total foi de 82% e o sucesso sem uso de antiarrítmicos foi de 57%. Contudo, 35% dos pacientes necessitaram de dois ou mais procedimentos. Houve 111 complicações (14,7%) e 2 óbitos (0,26%). CONCLUSÃO: A ablação curativa de FA vem crescendo significativamente em nosso País, com taxas de sucesso comparáveis às internacionais, mas comumente há necessidade de mais de um procedimento. Apesar dos resultados promissores, a ablação de FA ainda acarreta morbidade significativa. Métodos auxiliares de imagem têm sido cada vez mais utilizados, visando a aumentar a eficácia e a segurança do procedimento. Esses achados devem ser considerados pelos órgãos pagadores públicos e privados.
Resumo:
Desde hace ya tres décadas se conoce que el neonato, aún desde los primeros minutos de vida, puede responder a una gran variedad de olores, entre los cuales se encuentra el alcohol, con reacciones comportamentales y neurovegetativas específicas y que es capaz también de diferenciarlo de otros estímulos, lo que se puso de manifiesto a través de un proceso de habituación. La habituación, que es un proceso de aprendizaje no asociativo, se ha transformado en un parámetro valioso en el estudio del desarrollo de la plasticidad neurocomportamental en distintas especies, tanto en períodos perinatales como prenatales. En la esfera humana, se ha comprobado que el recién nacido puede habituar o sensitizar una respuesta refleja y responder de manera compleja a estimulación sensorial específica. Estudios realizados con claves olfatorias, tanto nóveles como biológicas, demuestran que el neonato puede reconocer y distinguir distintos olores y que la manera en que éste responde varía de acuerdo ala experiencia previa con el estímulo, manifestando preferencia por el olor que le resulta familiar, sin que necesariamente sea éste un olor materno. Estas tempranas capacidades de aprendizaje han sido útiles para evaluar la integridad del SNC fetal y neonatal, utilizando, por ejemplo, índices de habituación hacia distintos estímulos. Basándose en los resultados de estas investigaciones surge el objetivo general del proyecto: realizar un relevamiento de las capacidades de aprendizaje y memoria neonatales utilizando paradigmas de aprendizaje no asociativo como la habituación a claves olfativas nóveles (alcohol y limón), analizando la respuesta a los olores a través de patrones comportamentales y neurovegetativos presentes en el neonato a término. Este objetivo se irá desarrollando a lo largo de etapas experimentales consecutivas. En la primera de ellas, actualmente en ejecución, el propósito es evaluar respuestas habituatorias y de recuperación espontánea frente a la presentación secuencial de los aromas. En las etapas subsiguientes se pretenderá detectar también deshabituación y habituación ala deshabituación. Este proyecto forma parte de un plan de actividades mayor referido a reconocimiento, retención y discriminación de claves olfativas a nivel neonatológico. A largo plazo se procura diseñar, valiéndose de las tempranas capacidades de aprendizaje presentes en neonatos normales, pruebas que se utilicen para evaluar el desempeño neurocomportamental de recién nacidos donde se sospeche un Sistema Nervioso Central dañado por efectos de la exposición prenatal de alcohol y/o por episodios hipóxicos pre o perinatales.
Resumo:
La verificación y el análisis de programas con características probabilistas es una tarea necesaria del quehacer científico y tecnológico actual. El éxito y su posterior masificación de las implementaciones de protocolos de comunicación a nivel hardware y soluciones probabilistas a problemas distribuidos hacen más que interesante el uso de agentes estocásticos como elementos de programación. En muchos de estos casos el uso de agentes aleatorios produce soluciones mejores y más eficientes; en otros proveen soluciones donde es imposible encontrarlas por métodos tradicionales. Estos algoritmos se encuentran generalmente embebidos en múltiples mecanismos de hardware, por lo que un error en los mismos puede llegar a producir una multiplicación no deseada de sus efectos nocivos.Actualmente el mayor esfuerzo en el análisis de programas probabilísticos se lleva a cabo en el estudio y desarrollo de herramientas denominadas chequeadores de modelos probabilísticos. Las mismas, dado un modelo finito del sistema estocástico, obtienen de forma automática varias medidas de performance del mismo. Aunque esto puede ser bastante útil a la hora de verificar programas, para sistemas de uso general se hace necesario poder chequear especificaciones más completas que hacen a la corrección del algoritmo. Incluso sería interesante poder obtener automáticamente las propiedades del sistema, en forma de invariantes y contraejemplos.En este proyecto se pretende abordar el problema de análisis estático de programas probabilísticos mediante el uso de herramientas deductivas como probadores de teoremas y SMT solvers. Las mismas han mostrado su madurez y eficacia en atacar problemas de la programación tradicional. Con el fin de no perder automaticidad en los métodos, trabajaremos dentro del marco de "Interpretación Abstracta" el cual nos brinda un delineamiento para nuestro desarrollo teórico. Al mismo tiempo pondremos en práctica estos fundamentos mediante implementaciones concretas que utilicen aquellas herramientas.
Resumo:
Las estrategias en el diseño de estructuras estuvieron históricamente limitadas por condicionantes como la eficiencia estructural, la lectura de la estructura explicitando su función, o la estructura planteada a partir de materiales o recursos disponibles. Actualmente, el desarrollo de nuevas tecnologías informáticas, nuevos materiales y la aparición de nuevos paradigmas en cuanto a tecnología sustentable, ha generando una situación de libertad arquitectónica prácticamente total en la que casi cualquier planteo formal puede ser resuelto y construido. Es consecuencia de este proceso la aparición de formas estructurales fracturadas, angulosas, grandes voladizos, y la utilización de materiales y sistemas tecnológicos no convencionales, que requieren de nuevas técnicas auxiliares de proyecto, ejecución y representación, y para las cuales es necesario un nuevo planteamiento y adecuación de estrategias de diseño estructural en relación a la propuesta arquitectónica. Este nuevo escenario proyectual, no está contemplado en los métodos de enseñanza del diseño de estructuras, produciendo un vacío conceptual sobre los futuros profesionales que deberán incursionar en el mundo actual. Es por ello que se propone indagar en diferentes estrategias de diseño para la elaboración de una metodología didáctica que permita descubrir el concepto del proyecto arquitectónico y generar un sistema estructural que se relacione adecuadamente con él, desde una visión integral de la arquitectura como producto cultural complejo.
Resumo:
El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificarán el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas,produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene un alto componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que más se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales.
Resumo:
FUNDAMENTO: O infarto do miocárdio perioperatório (IMPO) é uma complicação da cirurgia de revascularização miocárdica (CRM) com potencial impacto prognóstico. A cintilografia miocárdica (CM) com pirofosfato marcado com tecnécio-99m é utilizada no diagnóstico de IMPO, mas demonstra limitada sensibilidade para lesões subendocárdicas. A ressonância magnética cardiovascular (RMC), por sua vez, detém alta acurácia para a detecção de necrose miocárdica. OBJETIVO: Comparar a RMC e a CM para a detecção de IMPO após CRM. MÉTODOS: Foram estudados 24 pacientes portadores de doença arterial coronária crônica, com a técnica de realce tardio pela RMC e com a CM, antes e depois da CRM, analisando-se o surgimento de áreas de necrose miocárdica perioperatória (IMPO). Mensuraram-se também marcadores bioquímicos de lesão miocárdica (CKMB e troponina I), antes e depois da cirurgia. RESULTADOS: Dezenove pacientes completaram o estudo. Desses, 6 (32%) apresentaram IMPO à RMC, e 4 (21%) à CM (p = NS). Dos 323 segmentos do ventrículo esquerdo avaliados, 17 (5,3%) exibiram necrose perioperatória à RMC, e 7 (2,2%) à CM (p = 0,013). Observou-se moderada concordância entre os métodos (kappa = 0,46), havendo divergência, quanto ao diagnóstico de IMPO, em 4 (21%) casos, a maioria com pequenas áreas de necrose perioperatória à RMC, não visualizadas à CM. Em todos os casos com IMPO à RMC, houve elevação significativa de CKMB e troponina I. CONCLUSÃO: Houve moderada concordância diagnóstica entre os métodos para a detecção de IMPO, mas a RMC permitiu a visualização de pequenas áreas de necrose miocárdica perioperatória, não identificadas pela CM e associadas à elevação de marcadores bioquímicos de lesão miocárdica.
Resumo:
FUNDAMENTO: O acidente vascular encefálico (AVE) é uma temida complicação após cirurgia de revascularização do miocárdio (CRM), com incidência entre 1,3% e 4,3%. OBJETIVO: Identificar fatores preditores de AVE após CRM, na era moderna da cirurgia cardíaca. MÉTODOS: Este é um estudo caso-controle de 65 pares de pacientes, no qual o pareamento foi realizado por sexo, idade (+ 3 anos) e data da CRM (+ 3 meses). Os casos são pacientes submetidos à CRM eletiva com circulação extracorpórea (CEC), que apresentaram AVE (definido como déficit clínico neurológico até 24 horas de pós-operatório e confirmado por exame de imagem), e os controles aqueles submetidos à CRM eletiva com CEC sem AVE. RESULTADOS: A análise univariada revelou que o número de vasos revascularizados foi associado com a ocorrência de AVE após a CRM (3 ± 0,8 vs. 2,76 ± 0,8, p = 0,01). Na análise multivariada por regressão logística condicional, a hipertensão arterial sistêmica [OR: 6,1 (1,5 - 24), p = 0,009] e o diabete melito [OR: 3,1 (1,09 - 11), p= 0,03] foram determinantes de maior chance de AVE após CRM, e o infarto agudo do miocárdio > 1 mês determinante de menor chance [OR: 0,1 (0,03 - 0,36), p = 0,003]. CONCLUSÃO: Hipertensão e diabete melito foram identificados como preditores independentes de AVE nas primeiras 24 horas de pós-operatório de CRM. Em pacientes com tais fatores de risco, é possível que o conhecimento dos mecanismos causadores da injúria cerebral represente uma estratégia capaz de diminuir a incidência de AVE após CRM.
Resumo:
FUNDAMENTO: A imagem de perfusão miocárdica adquirida durante episódio de dor torácica tem sido utilizada nos pacientes na sala de emergência. OBJETIVO: Avaliar as características operacionais da cintilografia com 99mTc-Tetrofosmin durante episódio de dor torácica para descartar o diagnóstico de infarto agudo do miocárdio. MÉTODOS: 108 pacientes admitidos com dor torácica ou até quatro horas do término dos sintomas e eletrocardiograma não diagnostico realizaram cintilografia em repouso e dosagens de troponina I. Pacientes com passado de infarto do miocárdio (IM) não foram excluídos (24 pacientes). Troponina I foi dosada na admissão e seis horas após. Médicos nucleares realizaram análise cega das imagens. Infarto do miocárdio foi confirmado com elevação da troponina I maior que três vezes o controle. RESULTADOS: A imagem perfusional de repouso foi anormal em todos os seis pacientes com IM. Apenas um paciente apresentou imagem normal e elevação da troponina. Outros 55 pacientes obtiveram imagem positiva sem IM e 46 pacientes com imagens e troponinas normais. A prevalência da doença foi 6,5%. A sensibilidade da imagem de repouso durante dor torácica para a evidência de IM foi 85,7% e especificidade de 45,5%. O valor preditivo negativo foi 97,7%. CONCLUSÃO: Pacientes submetidos ao protocolo de dor torácica com cintilografia de perfusão miocárdica demonstraram um excelente valor preditivo negativo para afastar o diagnóstico de infarto do miocárdio. Estes resultados sugerem que a imagem de perfusão em repouso é uma ferramenta importante na unidade de dor torácica.
Resumo:
FUNDAMENTO: A avaliação da função ventricular esquerda pode ser limitada pela movimentação anômala do septo interventricular, freqüentemente encontrada após cirurgia de revascularização miocárdica (CRM). A validação do Gated SPECT como ferramenta para avaliação da função ventricular nesse grupo de pacientes é escassa. OBJETIVO: Investigamos a concordância e a correlação entre a fração de ejeção do ventrículo esquerdo (FEVE), o volume diastólico final (VDF) e o volume sistólico final (VDF), obtidos pela cintilografia de perfusão miocárdica tomográfica sincronizada pelo eletrocardiograma (Gated SPECT), com os mesmos parâmetros medidos pela ressonância magnética cardíaca em 20 pacientes submetidos à revascularização miocárdica. MÉTODOS: A correlação foi medida pelo coeficiente de correlação de Spearman (ρ), enquanto a concordância foi avaliada por meio da análise de Bland e Altman. RESULTADOS: Houve uma correlação boa entre o Gated SPECT e a ressonância magnética cardíaca nos pacientes após CRM em relação à fração de ejeção do ventrículo esquerdo (ρ = 0,85; p = 0,0001), uma correlação moderada para o volume sistólico final (ρ = 0,51; p = 0,02) e uma correlação insignificante para o volume diastólico final (ρ = 0,13; p = 0,5). Os limites de concordância para FEVE, VSF e VDF foram: de -20% a 12%; de -38 a 54ml e de -96 a 100ml, respectivamente. CONCLUSÃO: A fração de ejeção do ventrículo esquerdo obtida pelo Gated SPECT correlaciona-se de modo confiável com a da ressonância magnética em pacientes submetidos à CRM. Os volumes ventriculares, entretanto, não apresentam uma correlação adequada.
Resumo:
FUNDAMENTO: A disfunção endotelial pode ser considerada um evento precoce da aterogênese. OBJETIVO: Avaliar a aterosclerose em transplantados renais através do escore de cálcio coronariano, do duplex scan das carótidas e da reatividade braquial através do ultra-som. MÉTODOS: Avaliamos trinta transplantados renais do sexo masculino com função renal estável, idade média de 41,3 anos. RESULTADOS: A detecção da carga aterosclerótica nesta população foi significativa quando utilizada a técnica da reatividade braquial (86,7%), menos freqüente baseando-se na presença de placa carotídea (33,3%) ou no escore de cálcio coronariano (20%). Placa carotídea foi considerada quando a espessura era superior a 12 mm. O escore de cálcio coronariano foi anormal quando acima de oitenta pela escala de Agatston, sendo observado em um percentual baixo (21,7%) dos pacientes, possivelmente porque a tomografia pode não ser o método ideal para detectar aterosclerose em doentes renais, por não distinguir calcificações intimais da camada média. O controle clínico adequado, a baixa faixa etária e fatores relacionados ao tempo de diálise pré-transplante ou ao efeito antiinflamatório das drogas pós-transplante podem retardar o aparecimento das calcificações. CONCLUSÃO: A avaliação da carga aterosclerótica através do duplex scan das carótidas (33,3%) e do escore de cálcio coronariano (20%) não foi freqüente, não havendo correlação com o elevado índice de detecção de disfunção endotelial observado com o exame da reatividade braquial (86,7%).
Resumo:
FUNDAMENTO: A aterosclerose ocorre mais cedo em pacientes com diabetes mellitus tipo 1 (DM-1) e a doença arterial coronariana (DAC) constitui a mais importante causa de morte. OBJETIVO: Avaliar a prevalência e as características anatômicas da DAC em pacientes com DM-1 e insuficiência renal crônica, submetidos à diálise. MÉTODOS: Este é um estudo descritivo de 20 pacientes com DM-1 submetidos à diálise sem DAC conhecida. A DAC foi avaliada através de angiografia coronariana quantitativa (ACQ) e ultra-som intravascular (USIV). A ACQ foi realizada em todas as lesões >30%, visualmente Todos os segmentos proximais de 18 mm das artérias coronárias foram analisados por USIV. Todos os outros segmentos coronarianos com estenose >30% também foram analisados. RESULTADOS: A angiografia detectou 29 lesões >30% em 15 pacientes (75%). Onze (55%) das lesões eram >50% e 10 (50%) >70%. Treze pacientes tiveram as 3 principais artérias avaliadas pelo USIV. A aterosclerose estava presente em todos os pacientes e em todos os 51 segmentos proximais de 18 mm analisados. Esses segmentos significam que a medida do diâmetro dos vasos apresentava-se significantemente maior no USIV do que na ACQ, em todos os vasos. As imagens do ISIV de 25 (86,2%) das 29 lesões >30% foram obtidas. Placas fibróticas eram comuns (48%) e 60% apresentavam remodelamento intermediário de vasos. CONCLUSÃO: A DAC estava presente em todos os vasos de todos os pacientes com diabete tipo 1 submetidos a hemodiálise. Esses achados estão de acordo com outros estudos de autópsia, angiografia e USIV. Além disso, eles indicam a necessidade de estudos adicionais epidemiológicos e de imagem, para um melhor entendimento e tratamento de uma condição clínica complexa e grave que afeta jovens indivíduos.