1000 resultados para Métodos de alimentação


Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Estudar os fatores associados à hipertensão arterial (HA) e ao diabete melito (DM) em trabalhadores de empresa metalúrgica e siderúrgica com unidades em São Paulo e Rio de Janeiro, mediante um modelo hierárquico de risco. MÉTODOS: Este é um estudo transversal. Foram obtidas informações sobre variáveis demográficas, ocupacionais, do estilo de vida, perfil lipídico, glicemia de jejum e pressão arterial de 3.777 empregados, e realizadas análise estatística descritiva e análise de regressão logística múltipla hierarquizada. RESULTADOS: A prevalência de HA foi de 24,7%, e a análise de regressão hierarquizada indicou que sexo masculino e idade acima de quarenta anos apresentaram risco estatisticamente significativo. Independentemente das características demográficas, trabalhar em metalurgia, estresse intenso no trabalho, sedentarismo, consumo de álcool, índice de massa corporal superior a 25, colesterol alterado e triglicérides alterados estiveram associados com a HA. A prevalência de DM foi de 11,5%, e a análise de regressão hierarquizada indicou que sexo masculino e idade acima de quarenta anos apresentaram risco estatisticamente significativo. Independentemente das características demográficas, as mesmas condições estiveram associadas com a DM. CONCLUSÃO: Os dados evidenciaram que o trabalhador acima de quarenta anos é uma prioridade para ações de intervenção que possam favorecer a prevenção dos dois agravos. Nessas ações, deve-se dar atenção especial à alimentação e à prática de exercícios físicos, que favoreceriam o controle da obesidade e da alteração do perfil lipídico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificará el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas. Produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/ proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene una alta componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que mas se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El proyecto de investigación propuesto tiene como principal objetivo profundizar en el estudio de la Mecánica Estadística y su aplicación a la resolución de problemas en esta área. Los temas de interés son los siguientes: 1. Estudio de la influencia del desorden en las propiedades dinámicas y termodinámicas de sistemas clásicos y cuánticos. 2. Reacciones controladas por difusión; influencia de campos externos aplicados. 3. Estudio de la influencia de la autocorrelación temporal finita sobre un sistema excitado por un ruido (ruido coloreado). 4. Resonancia Estocástica analizada a través de la función de Estructura Dinámica. 5. Estudio de procesos de quimiorrecepción de sistemas biológicos. 6. Cálculo del operador de evolución temporal para sistemas con Hamiltonianos dependientes del tiempo (Fase de Berry). 7. Influencia del desorden en la estadística del tiempo del primer pasaje en sistemas finitos. 8. Estudio del modelo de "Tight Binding" con desorden estático. Objetivos específicos * Se continuará con el estudio de la evolución temporal para sistemas Hamiltonianos dependientes del tiempo (Fase de Berry). * Se estudiará de las propiedades termodinámicas de sistemas Hamiltonianos clásicos y cuánticos con desorden estático. * Se estudiará la probabilidad de supervivencia y los momentos de desplazamientos para partículas que difunden en un sistema unidimensional con trampas estáticas. En particular se tratará el caso de campo fuerte, extendiendo los resultados ya obtenidos en el caso de campo débil; se analizará la conexión con la estadística del tiempo del primer pasaje. * Se continuará con el estudio analítico de los exponentes críticos para Modelos de la Mayoría. (...) * Se realizará un estudio detallado de las propiedades de la función de estructura dinámica asociada con el movimiento uni-dimensional de partículas sometidas a potenciales anarmónicos con múltiples pozos y fricción débil. Se estudiará el fenómeno de resonancia estocástica a través de la función de estructura dinámica. * Se estudiará la estadística del tiempo del primer pasaje en sistemas finitos homogéneos y desordenados con diversas condiciones de entorno.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

FUNDAMENTO: A aterosclerose coronariana (DAC) é a maior causa mortis do mundo, segundo a Organização Mundial de Saúde. O estudo INTERHEART mostrou que a dislipidemia é um dos maiores fatores de risco independente para o IAM. OBJETIVO: Avaliar perfil lipídico e pressão arterial de escolares de estabelecimentos privados e públicos/filantrópicos. MÉTODOS: Foram analisadas amostras sanguíneas de 343 jovens e correlacionados com seus hábitos de vida. Análise estatística: Foi realizada pelo teste t de Student para amostras independentes para comparação de médias e pelo teste do qui-quadrado (c²) para comparação de proporções. Nível de significância 5%. RESULTADOS: O colesterol total, suas frações LDL e HDL e o índice de Castelli I foram mais altos entre os escolares das unidades privadas, com significância estatística para meninos e meninas, com exceção para o HDL dos meninos. A pressão arterial foi maior no mesmo grupo sem significância estatística. O diferencial entre os dois tipos de instituições em relação ao percentual de crianças com colesterol total > 190 mg/dl, foi 23% nas particulares e 4% nas públicas/filantrópicas. Quando comparados os inquéritos de alimentação e atividade física e correlacionados com o perfil lipídico fica clara a associação da atividade física diária e a supervisão de nutricionistas na alimentação dos de menor poder sócio-econômico. CONCLUSÃO: Ficou demonstrada a correlação do colesterol total e de sua fração LDL com o tipo de alimentação e a atividade física mais intensa e regular, beneficiando infantes mais carentes em relação aos matriculados em unidades privadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Avaliar as diferenças entre três métodos para medida do infarto experimental em ratos, em relação ao método tradicional. MÉTODOS: A área infartada por histologia (AREA), o perímetro interno da cavidade infartada por histologia (PER) e o perímetro interno por ecocardiograma (ECO) foram comparados ao método tradicional (análise histológica das circunferências epicárdicas e endocárdicas da região infartada - CIR). Utilizaram-se ANOVA de medidas repetidas, complementada com o teste de comparações múltiplas de Dunn, o método de concordância de Bland & Altman e o teste de correlação de Spearman. A significância foi p < 0,05. RESULTADOS: Foram analisados dados de 122 animais, após 3 a 6 meses do infarto. Houve diferença na avaliação do tamanho do infarto entre CIR e os outros três métodos (p < 0,001): CIR = 42,4% (35,9-48,8), PER = 50,3% (39,1-57,0), AREA = 27,3% (20,2-34,3), ECO = 46,1% (39,9-52,6). Assim, a medida por área resultou em subestimação de 15% do tamanho do infarto, enquanto as medidas por ecocardiograma e pelo perímetro interno por meio de histologia resultaram em superestimação do tamanho do infarto de 4% e 5%, respectivamente. Em relação ao ECO e PER, apesar de a diferença entre os métodos ser de apenas 1,27%, o intervalo de concordância variou de 24,1% a -26,7%, sugerindo baixa concordância entre os métodos. Em relação às associações, houve correlações estatisticamente significativas entre: CIR e PER (r = 0,88 e p < 0,0001); CIR e AREA (r = 0,87 e p < 0,0001) e CIR e ECO (r = 0,42 e p < 0,0001). CONCLUSÃO: Na determinação do tamanho do infarto, apesar da alta correlação, houve baixa concordância entre os métodos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La etapa de optimización de una droga denominada "Preformulación" está dirigida a definir el perfil de una droga desde el punto de vista de su identidad, pureza y potencia. Mediante la determinación de las propiedades físico-químicas que son relevantes en la formulación de un agente terapéutico es posible realizar una evaluación preliminar sobre las características de absorción del principio activo, por parte del organismo. (...) En la actualidad se elaboran en la Oficina de Farmacia "Formas Farmacéuticas" de cierta complejidad, que no pueden ser analizadas por los clásicos métodos químicos, sino que requieren de técnicas de instrumental modernas altamente selectivas y sensibles. Este tipo de estudio no puede realizarse fuera de los laboratorios oficiales de Control o del ámbito universitario, en razón del costo del equipamiento y las condiciones necesarias para su correcto funcionamiento. El análisis de los principios activos y de los productos farmacéuticos con ellos elaborados es responsabilidad tanto de la autoridad reguladora como el propio farmacéuticas que serán administradas al paciente. Es por ello que esta propuesta involucra el desarrollo de metodologías analíticas específicas y sensibles que permitan, en forma rápida, determinar la composición de las formas farmacéuticas que se comercializan, para "garantizar", dentro de los límites admisibles, la "calidad", requisito previo para una terapéutica medicamentosa eficaz y racional. Estudios realizados en diferentes países, demuestran el desarrollo significativo que ha tenido la Cromatografía Líquida de Alta Presión (HPLC) y la Espectrofotometría de Derivadas en el campo farmacéutico, permitiendo el análisis de drogas en presencia de sus productos de degradación o bien en mezclas de multicomponentes, aplicando distintas técnicas Espectroscópicas, como IR, RMN y EM en la determinación de estructuras. Por tal motivo, este proyecto apunta a desarrollar metodologías analíticas aplicables al análisis y determinación simultánea de los principios activos contenidos en formulaciones farmacéuticas. En este caso particular se propone el estudio de preparaciones galénicas (comprimidos) utilizadas como complemento en regímenes alimenticios, debido a la acción farmacológica de los ingredientes activos, al uso intensivo de las mismas en la Provincia de Córdoba y a la falta de Control de Calidad.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

FUNDAMENTO: As crianças com cardiopatia congênita geralmente são desnutridas e apresentam algum grau de comprometimento funcional e/ou estrutural dos orgãos. Existe, ainda, uma deficiência na ingestão de nutrientes, corroborada pelo controle hídrico, que limita o aporte nutricional de alguns cardiopatas. OBJETIVO: Avaliar o consumo alimentar de crianças com cardiopatia congênita internadas na Unidade de Pediatria Cardiológica de hospital-escola público. MÉTODOS: O consumo de alimentos e nutrientes foi calculado pelo consumo alimentar de três dias (método direto de pesagem) e o cálculo das calorias e nutrientes foi feito pelo software Virtual Nutri. RESULTADOS: O consumo de calorias/kg peso, de proteínas diárias, de sódio e de vitamina A esteve dentro do recomendado (p < 0,05). Todavia, as calorias diárias, os lipídios, as fibras, o potássio e o ferro estiveram abaixo do recomendado (p < 0,05) e, as proteínas/kg peso, os carboidratos, o cálcio e a vitamina C estiveram acima do recomendado (p < 0,05). CONCLUSÃO: Crianças com cardiopatia congênita têm dietas inadequadas e, portanto, necessitam de orientação nutricional para haver ingestão dietética adequada e conseqüente melhora do crescimento e do desenvolvimento pondo-estatural, garantindo melhor qualidade de vida aos pacientes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

FUNDAMENTO: Estudos clínicos e epidemiológicos demonstram grande associação da dieta com os agravos crônicos, particularmente com os eventos cardiovasculares, apesar de ainda não compreendidos todos os seus mecanismos de ação. OBJETIVO: Descrever e analisar o risco cardiovascular em vegetarianos e onívoros residentes na Grande Vitória/ES, na faixa etária de 35 a 64 anos. MÉTODOS: Para avaliação do risco cardiovascular foi realizado estudo de coorte histórico com 201 indivíduos. Foram incluídos 67 vegetarianos há no mínimo 5 anos, provenientes da Grande Vitória, e 134 onívoros, participantes do Projeto MONICA/Vitória, pareados por classe socioeconômica, sexo, idade e raça. Medidas bioquímicas e hemodinâmicas foram obtidas na Clínica de Investigação Cardiovascular da UFES. Para comparação de proporções, foi usado o teste chi2 e calculada a razão de prevalência. O risco cardiovascular foi calculado por meio do algoritmo de Framingham. RESULTADOS: A idade média do grupo foi de 47 ± 8 anos e o tempo médio de vegetarianismo 19 ± 10 anos, sendo a dieta ovolactovegetariana seguida por 73% dos vegetarianos. Pressão arterial, glicemia de jejum, colesterol total, colesterol de lipoproteína de baixa densidade (LDL-colesterol) e triglicerídeos foram mais baixos entre vegetarianos (p<0,001). O colesterol de lipoproteína de alta densidade (HDL-colesterol) não foi diferente entre os grupos. De acordo com o algoritmo de Framingham, os vegetarianos apresentaram menor risco cardiovascular (p<0,001). CONCLUSÃO: A alimentação onívora desbalanceada, com excesso de proteínas e gorduras de origem animal, pode estar implicada, em grande parte, no desencadeamento de doenças e agravos não-transmissíveis, especialmente no risco cardiovascular.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desde hace ya tres décadas se conoce que el neonato, aún desde los primeros minutos de vida, puede responder a una gran variedad de olores, entre los cuales se encuentra el alcohol, con reacciones comportamentales y neurovegetativas específicas y que es capaz también de diferenciarlo de otros estímulos, lo que se puso de manifiesto a través de un proceso de habituación. La habituación, que es un proceso de aprendizaje no asociativo, se ha transformado en un parámetro valioso en el estudio del desarrollo de la plasticidad neurocomportamental en distintas especies, tanto en períodos perinatales como prenatales. En la esfera humana, se ha comprobado que el recién nacido puede habituar o sensitizar una respuesta refleja y responder de manera compleja a estimulación sensorial específica. Estudios realizados con claves olfatorias, tanto nóveles como biológicas, demuestran que el neonato puede reconocer y distinguir distintos olores y que la manera en que éste responde varía de acuerdo ala experiencia previa con el estímulo, manifestando preferencia por el olor que le resulta familiar, sin que necesariamente sea éste un olor materno. Estas tempranas capacidades de aprendizaje han sido útiles para evaluar la integridad del SNC fetal y neonatal, utilizando, por ejemplo, índices de habituación hacia distintos estímulos. Basándose en los resultados de estas investigaciones surge el objetivo general del proyecto: realizar un relevamiento de las capacidades de aprendizaje y memoria neonatales utilizando paradigmas de aprendizaje no asociativo como la habituación a claves olfativas nóveles (alcohol y limón), analizando la respuesta a los olores a través de patrones comportamentales y neurovegetativos presentes en el neonato a término. Este objetivo se irá desarrollando a lo largo de etapas experimentales consecutivas. En la primera de ellas, actualmente en ejecución, el propósito es evaluar respuestas habituatorias y de recuperación espontánea frente a la presentación secuencial de los aromas. En las etapas subsiguientes se pretendedetectar también deshabituación y habituación ala deshabituación. Este proyecto forma parte de un plan de actividades mayor referido a reconocimiento, retención y discriminación de claves olfativas a nivel neonatológico. A largo plazo se procura diseñar, valiéndose de las tempranas capacidades de aprendizaje presentes en neonatos normales, pruebas que se utilicen para evaluar el desempeño neurocomportamental de recién nacidos donde se sospeche un Sistema Nervioso Central dañado por efectos de la exposición prenatal de alcohol y/o por episodios hipóxicos pre o perinatales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La verificación y el análisis de programas con características probabilistas es una tarea necesaria del quehacer científico y tecnológico actual. El éxito y su posterior masificación de las implementaciones de protocolos de comunicación a nivel hardware y soluciones probabilistas a problemas distribuidos hacen más que interesante el uso de agentes estocásticos como elementos de programación. En muchos de estos casos el uso de agentes aleatorios produce soluciones mejores y más eficientes; en otros proveen soluciones donde es imposible encontrarlas por métodos tradicionales. Estos algoritmos se encuentran generalmente embebidos en múltiples mecanismos de hardware, por lo que un error en los mismos puede llegar a producir una multiplicación no deseada de sus efectos nocivos.Actualmente el mayor esfuerzo en el análisis de programas probabilísticos se lleva a cabo en el estudio y desarrollo de herramientas denominadas chequeadores de modelos probabilísticos. Las mismas, dado un modelo finito del sistema estocástico, obtienen de forma automática varias medidas de performance del mismo. Aunque esto puede ser bastante útil a la hora de verificar programas, para sistemas de uso general se hace necesario poder chequear especificaciones más completas que hacen a la corrección del algoritmo. Incluso sería interesante poder obtener automáticamente las propiedades del sistema, en forma de invariantes y contraejemplos.En este proyecto se pretende abordar el problema de análisis estático de programas probabilísticos mediante el uso de herramientas deductivas como probadores de teoremas y SMT solvers. Las mismas han mostrado su madurez y eficacia en atacar problemas de la programación tradicional. Con el fin de no perder automaticidad en los métodos, trabajaremos dentro del marco de "Interpretación Abstracta" el cual nos brinda un delineamiento para nuestro desarrollo teórico. Al mismo tiempo pondremos en práctica estos fundamentos mediante implementaciones concretas que utilicen aquellas herramientas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las estrategias en el diseño de estructuras estuvieron históricamente limitadas por condicionantes como la eficiencia estructural, la lectura de la estructura explicitando su función, o la estructura planteada a partir de materiales o recursos disponibles. Actualmente, el desarrollo de nuevas tecnologías informáticas, nuevos materiales y la aparición de nuevos paradigmas en cuanto a tecnología sustentable, ha generando una situación de libertad arquitectónica prácticamente total en la que casi cualquier planteo formal puede ser resuelto y construido. Es consecuencia de este proceso la aparición de formas estructurales fracturadas, angulosas, grandes voladizos, y la utilización de materiales y sistemas tecnológicos no convencionales, que requieren de nuevas técnicas auxiliares de proyecto, ejecución y representación, y para las cuales es necesario un nuevo planteamiento y adecuación de estrategias de diseño estructural en relación a la propuesta arquitectónica. Este nuevo escenario proyectual, no está contemplado en los métodos de enseñanza del diseño de estructuras, produciendo un vacío conceptual sobre los futuros profesionales que deberán incursionar en el mundo actual. Es por ello que se propone indagar en diferentes estrategias de diseño para la elaboración de una metodología didáctica que permita descubrir el concepto del proyecto arquitectónico y generar un sistema estructural que se relacione adecuadamente con él, desde una visión integral de la arquitectura como producto cultural complejo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificarán el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas,produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene un alto componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que más se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A DAC continua sendo uma das principais causas globais de morbimortalidade. Programas amplos de desenvolvimento de drogas para novas estratégias de tratamento medicamentoso freqüentemente utilizam estudos com desfechos de mortalidade/morbidade tradicionais e outros com desfechos substitutos. Essa abordagem paralela permite uma avaliação da eficácia vários anos antes dos dados de estudos com desfechos clínicos estarem disponíveis. Vários marcadores imagenológicos de aterosclerose foram introduzidos nessas estratégias de desenvolvimento de drogas, incluindo angiografia, ultrassonografia de carótida, USIV, RM e TC. Esta revisão discutirá a situação atual dos métodos por imagem da aterosclerose como um desfecho em estudos de progressão/regressão, com ênfase em dados baseados em evidências. Além de uma discussão sobre os resultados das modalidades de métodos por imagem individuais, serão apresentados os dados que têm surgido comparando as diferentes modalidades e abordagens.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

FUNDAMENTO: A disfunção endotelial pode ser considerada um evento precoce da aterogênese. OBJETIVO: Avaliar a aterosclerose em transplantados renais através do escore de cálcio coronariano, do duplex scan das carótidas e da reatividade braquial através do ultra-som. MÉTODOS: Avaliamos trinta transplantados renais do sexo masculino com função renal estável, idade média de 41,3 anos. RESULTADOS: A detecção da carga aterosclerótica nesta população foi significativa quando utilizada a técnica da reatividade braquial (86,7%), menos freqüente baseando-se na presença de placa carotídea (33,3%) ou no escore de cálcio coronariano (20%). Placa carotídea foi considerada quando a espessura era superior a 12 mm. O escore de cálcio coronariano foi anormal quando acima de oitenta pela escala de Agatston, sendo observado em um percentual baixo (21,7%) dos pacientes, possivelmente porque a tomografia pode não ser o método ideal para detectar aterosclerose em doentes renais, por não distinguir calcificações intimais da camada média. O controle clínico adequado, a baixa faixa etária e fatores relacionados ao tempo de diálise pré-transplante ou ao efeito antiinflamatório das drogas pós-transplante podem retardar o aparecimento das calcificações. CONCLUSÃO: A avaliação da carga aterosclerótica através do duplex scan das carótidas (33,3%) e do escore de cálcio coronariano (20%) não foi freqüente, não havendo correlação com o elevado índice de detecção de disfunção endotelial observado com o exame da reatividade braquial (86,7%).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

FUNDAMENTO: A prevalência de síndrome metabólica (SM), encontrada em diferentes estudos, tem apresentado ampla variação dependendo da população e do critério diagnóstico utilizado, havendo uma tendência de maior prevalência da SM com o critério diagnóstico da International Diabetes Federation (IDF). OBJETIVO: Comparar a prevalência da SM com diferentes critérios em idosos de uma comunidade. MÉTODOS: Este é um estudo transversal, de base populacional, realizado na cidade de Novo Hamburgo - RS, Brasil -, do qual participaram 378 idosos com 60 anos ou mais (252 mulheres e 126 homens). A prevalência da SM foi estimada aplicando os critérios diagnósticos do National Cholesterol Education Program - Adult Treatment Panel III (NCEP ATPIII) (2001), do NCEP ATPIII revisado (2005) e da IDF. RESULTADOS: A prevalência de SM aumentou progressivamente com a utilização dos critérios do NCEP ATP III, NCEP ATP III revisado e da IDF, apresentando valores de 50,3%, 53,4% e 56,9%, respectivamente. O aumento progressivo da prevalência de SM com a utilização dos três critérios ocorreu em ambos os sexos, com maior prevalência entre as mulheres, com percentuais de 57,1%, 59,9% e 63,5% com os critérios do NCEP ATP III, NCEP ATP III revisado e da IDF, respectivamente. CONCLUSÃO: Utilizando o critério da IDF, encontrou-se uma maior prevalência de SM em relação à prevalência encontrada com o critério do NCEP ATP III e NCEP ATP III revisado. A prevalência da SM foi maior entre as mulheres, independente do critério utilizado.