982 resultados para Reinaldo Arenas
Resumo:
OBJETIVO: Apresentar uma proposição técnica baseada na experiência de 130 implantes utilizando técnica simplificada para cateterização do seio coronariano, baseada no componente atrial do eletrograma intracavi-tário e anatomia radiológica. MÉTODOS: De outubro de 2001 a outubro de 2004 foram realiza-dos 130 implantes de marcapasso biventricular, utilizando-se anatomia radiológica e observação de eletrograma intracavitário, com prioridade ao componente atrial. RESULTADOS: O implante do sistema, utilizando-se a estimulação do ventrículo esquerdo via seio coronariano, não foi possível em 8 pacientes. Em 12 pacientes foram observadas dificuldades na canulação do óstio coronário e em 15 pacientes observaram-se dificuldades de progressão do eletrodo através do seio coronariano. O tempo médio de utilização de radioscopia foi de 18,69 min. CONCLUSÃO: A técnica de implante, utilizando a morfologia do componente atrial do eletrograma intracavitário e anatomia radiológica, demonstrou ser pouco trabalhosa, segura e eficaz para canulação do óstio do seio coronariano, necessitando de reduzido tempo de radioscopia.
Resumo:
OBJETIVO: Comparar os valores de triglicérides (TG), colesterol total (CT), lipoproteína de baixa densidade (LDL) e lipoproteína de alta densidade (HDL) entre indivíduos vegetarianos e onívoros. MÉTODOS: Foram coletadas amostras sangüíneas de 76 indivíduos, de ambos os sexos, que foram separados em quatro grupos de dieta: onívoro, ovolacto, lacto e vegetariano restrito (ou "vegan"). Foram dosados: CT, LDL, HDL e TG. RESULTADOS: Para as taxas de CT, LDL e TG, observa-se diferença significante entre as amostras, sendo o maior valor nos onívoros, havendo decréscimo nos vegetarianos, de acordo com o grau de restrição de produtos de origem animal, sendo a menor taxa observada nos "vegans". A média e o desvio padrão do CT foram de 208,09 ± 49,09 mg/dl no grupo de onívoros, e 141,06 ± 30,56 mg/dl no de vegan (p < 0,001). Os valores de LDL foram, para onívoros e "vegans", respectivamente, 123,43 ± 42,67 mg/dl e 69,28 ± 29,53 mg/dl (p < 0,001). Para o TG, esses valores foram 155,68 ± 119,84 mg/dl e 81,67 ± 81,90 mg/dl (p < 0,01). Com relação à taxa de HDL, não houve diferença entre as amostras, mas a proporção HDL/CT foi significantemente maior nos "vegans" (p = 0,01). CONCLUSÃO: A dieta vegetariana associou-se a menores valores de TG, CT e LDL em comparação com a dieta onívora.
Resumo:
El presente estudio se orienta a materiales de aplicación en la fabricación de motores y transformadores de potencias medias a bajas (laminaciones), abordando en el mismo los aspectos inherentes a la etapa de recocido descarburante realizado por el usuario. Dicho tratamiento térmico permite modificar el contenido de carbono original alcanzando niveles muy bajos (< 0,005%C). Además, se debe aumentar el tamaño de grano a valores óptimos para conseguir las mejores propiedades magnéticas: bajas pérdidas y alta permeabilidad. Este crecimiento de grano está fuertemente influido por las características morfológicas y por la cantidad de partículas de segunda fase precipitadas, de las cuales el nitruro de aluminio (AlN) es el principal inhibidor de crecimiento. Su control o la predicción de su influencia es el objetivo de los usuarios de laminaciones, para obtener un tamaño de grano adecuado. En consecuencia, este trabajo propone un estudio exhaustivo del comportamiento del AlN en el anclaje del borde de grano y en la formación de la textura cristalográfica, y la posibilidad de modelizar matemáticamente su influencia. El objetivo general de este trabajo es el estudio integral de la optimización del tratamiento térmico de los aceros eléctricos, para su aplicación por parte de las empresas usuarias de dichos materiales. Como objetivo específico, en este trabajo se propone la observación microscópica con microscopía de transmisión, de las partículas de NAl en aceros de bajo carbono de uso eléctrico, para inferir sobre su influencia en el crecimiento controlado del tamaño de grano y en la formación de textura. Se propone, además, intentar la modelización del anclaje de grano que producen los nitruros de aluminio.
Resumo:
En esta investigación se plantea la ejecución de ensayos in situ para medir la colapsibilidad de los suelos loéssicos de la ciudad de Córdoba. Actualmente las metodologías más comunes para realizar ensayos de colapsibilidad son de laboratorio. Esto supone una serie de inconvenientes y, en cierto modo, algunas indeterminaciones al querer transferir a la realidad del comportamiento del suelo las determinaciones de laboratorio, en especial en cuanto a los asentamientos. Por su parte, existen suelos limo-arenosos o arenas finas-limosas muy difíciles o casi imposibles de muestrear, por tratarse de suelos sumamente friables, en los que no resultan de aplicación los métodos de laboratorio. En este tipo de suelos es de especial interés el desarrollo de una técnica para la ejecución de ensayos de colapsibilidad in situ. La intención del trabajo de investigación planteado es el desarrollo de la técnica de ensayo in situ y su calibración por comparación con ensayos de laboratorio. Con la información adquirida se evaluarán los resultados y se enunciarán las conclusiones pertinentes. Objetivos generales: * Estudiar la caracterización de los suelos colapsables. * Proponer metodologías alternativas de estudio de estos suelos. Objetivos específicos: * Determinaciones comparativas de ensayos de campaña y laboratorio. * Definir aspectos metodológicos-prácticos para la realización sistemática de estos ensayos
Resumo:
El crecimiento exponencial del tráfico de datos es uno de los mayores desafíos que enfrentan actualmente los sistemas de comunicaciones, debiendo los mismos ser capaces de soportar velocidades de procesamiento de datos cada vez mas altas. En particular, el consumo de potencia se ha transformado en uno de los parámetros de diseño más críticos, generando la necesidad de investigar el uso de nuevas arquitecturas y algoritmos para el procesamiento digital de la información. Por otro lado, el análisis y evaluación de nuevas técnicas de procesamiento presenta dificultades dadas las altas velocidades a las que deben operar, resultando frecuentemente ineficiente el uso de la simulación basada en software como método. En este contexto, el uso de electrónica programable ofrece una oportunidad a bajo costo donde no solo se evaluan nuevas técnicas de diseño de alta velocidad sino también se valida su implementación en desarrollos tecnológicos. El presente proyecto tiene como objetivo principal el estudio y desarrollo de nuevas arquitecturas y algoritmos en electrónica programable para el procesamiento de datos a alta velocidad. El método a utilizar será la programación en dispositivos FPGA (Field-Programmable Gate Array) que ofrecen una buena relación costo-beneficio y gran flexibilidad para integrarse con otros dispositivos de comunicaciones. Para la etapas de diseño, simulación y programación se utilizaran herramientas CAD (Computer-Aided Design) orientadas a sistemas electrónicos digitales. El proyecto beneficiara a estudiantes de grado y postgrado de carreras afines a la informática y las telecomunicaciones, contribuyendo al desarrollo de proyectos finales y tesis doctorales. Los resultados del proyecto serán publicados en conferencias y/o revistas nacionales e internacionales y divulgados a través de charlas de difusión y/o encuentros. El proyecto se enmarca dentro de un área de gran importancia para la Provincia de Córdoba, como lo es la informática y las telecomunicaciones, y promete generar conocimiento de gran valor agregado que pueda ser transferido a empresas tecnológicas de la Provincia de Córdoba a través de consultorias o desarrollos de productos.
Resumo:
Descrevemos caso de paciente do sexo masculino, 49 anos, que sofreu ferimento por arma de fogo no tórax, transfixando o mediastino médio. Apresentava-se estável hemodinamicamente, contudo taquicárdico e taquipnéico. Ele foi submetido à propedêutica armada com radiograma de tórax, ecocardiografia transtorácica, tomografia computadorizada de tórax e arteriografia do arco aórtico. Evidenciou-se fístula traumática do tronco braquiocefálico com a veia braquiocefálica. Realizou-se correção cirúrgica com a utilização de circulação extracorpórea e hipotermia profunda com parada circulatória total. O paciente evolui bem com alta no quinto pós-operatório.
Resumo:
El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware. Today´s advances in high-performance computing are driven by parallel processing capabilities of available hardware architectures. These architectures enable the acceleration of algorithms when thes ealgorithms are properly parallelized and exploit the specific processing power of the underneath architecture. Most current processors are targeted for general pruposes and integrate several processor cores on a single chip, resulting in what is known as a Symmetric Multiprocessing (SMP) unit. Nowadays even desktop computers make use of multicore processors. Meanwhile, the industry trend is to increase the number of integrated rocessor cores as technology matures. On the other hand, Graphics Processor Units (GPU), originally designed to handle only video processing, have emerged as interesting alternatives to implement algorithm acceleration. Current available GPUs are able to implement from 200 to 400 threads for parallel processing. Scientific computing can be implemented in these hardware thanks to the programability of new GPUs that have been denoted as General Processing Graphics Processor Units (GPGPU).However, GPGPU offer little memory with respect to that available for general-prupose processors; thus, the implementation of algorithms need to be addressed carefully. Finally, Field Programmable Gate Arrays (FPGA) are programmable devices which can implement hardware logic with low latency, high parallelism and deep pipelines. Thes devices can be used to implement specific algorithms that need to run at very high speeds. However, their programmability is harder that software approaches and debugging is typically time-consuming. In this context where several alternatives for speeding up algorithms are available, our work aims at determining the main features of thes architectures and developing the required know-how to accelerate algorithm execution on them. We look at identifying those algorithms that may fit better on a given architecture as well as compleme
Resumo:
FUNDAMENTO: A terapia de ressincronização cardíaca (TRC) é uma opção efetiva para os pacientes com insuficiência cardíaca (IC) avançada. Critérios clínicos, eletrocardiográficos e ecocardiográficos têm sido estudados na tentativa de selecionar os pacientes que serão beneficiados com a TRC, sendo o ecocardiograma um método utilizado tanto na seleção quanto na avaliação desta terapêutica. OBJETIVO: O objetivo deste trabalho é analisar a utilização do ecocardiograma na avaliação da TRC, no seguimento de dez dias e após dois anos de evolução. MÉTODOS: Foram avaliados 20 pacientes submetidos à TRC, por um período de dois anos, sendo 80% do sexo masculino. Foi aplicado o Questionário de Qualidade de Vida de Minnesota, o teste de caminhada de seis minutos e realizado o ecodopplercardiograma bidimensional. Dez dias após o implante do marca-passo biventricular, bem como dois anos depois, foi repetida a avaliação inicial. RESULTADOS: Em dois anos, 5 pacientes (25%) foram a óbito; 4 apresentavam cardiomiopatia de etiologia chagásica. Não houve alteração estatisticamente significante da fração de ejeção entre o período pré-operatório e os dez dias seguintes, mas sim uma alteração significante nos períodos de pré-operatório e dois anos e de dez dias e dois anos. No seguimento de dez dias, houve piora da dissincronia intraventricular avaliada pelo Doppler tecidual, assim como a pontuação no escore de qualidade de vida foi maior no grupo óbito. CONCLUSÃO: Dos parâmetros ecocardiográficos avaliados, somente a avaliação da dissincronia intraventricular pelo Doppler tecidual após o procedimento foi capaz de predizer a eficácia da TRC em relação à mortalidade.
Resumo:
FUNDAMENTO: Pouco se sabe sobre o desfecho dos pacientes com cardiopatia chagásica, em comparação aos pacientes com miocardiopatia dilatada idiopática na era contemporânea. OBJETIVO: Comparar o desfecho dos pacientes chagásicos com insuficiência cardíaca sistólica crônica decorrente da cardiopatia chagásica ao observado em pacientes com MDI na era contemporânea. MÉTODOS: Foi incluído um total de 352 pacientes (246 com cardiomiopatia chagásica e 106 com miocardiopatia dilatada idiopática), seguidos prospectivamente em nossa Instituição, de janeiro de 2000 a janeiro de 2008. Todos os pacientes receberam tratamento clínico contemporâneo padrão. RESULTADOS: Na análise multivariada com o modelo de risco proporcional de Cox, o uso da digoxina (relação de risco = 3,17; intervalo de confiança de 95%, de 1,62 a 6,18; p = 0,001) necessitou de suporte inotrópico (relação de risco = 2,08; intervalo de confiança de 95%, de 1,43 a 3,02; p < 0,005). A fração de ejeção do ventrículo esquerdo (relação de risco = 0,97; intervalo de confiança de 95%, de 0,95 a 0,99; p < 0,005) e a etiologia da cardiopatia chagásica (relação de risco = 3,29; intervalo de confiança de 95%, de 1,89 a 5,73; p < 0,005) foram associadas positivamente à mortalidade, enquanto a terapia com betabloqueadores (relação de risco = 0,39; intervalo de confiança de 95%, de 0,26 a 0,56; p < 0,005) foi associada negativamente à mortalidade. A probabilidade de sobrevida para pacientes com cardiomiopatia chagásica em oito, 24 e 49 meses foi de 83%, 61% e 41%, respectivamente. Já para pacientes com cardiomiopatia dilatada idiopática, foi de 97%, 92% e 82%, respectivamente (p < 0,005). CONCLUSÃO: Na era atual do tratamento da insuficiência cardíaca, os pacientes com cardiomiopatia chagásica têm um desfecho pior em comparação aos pacientes com cardiomiopatia dilatada idiopática.
Resumo:
FUNDAMENTO: A Hipertensão Arterial Sistêmica (HAS) é importante causa de Insuficiência Cardíaca sistólica Crônica (ICC) em países em desenvolvimento. Seria necessário conhecerem-se os fatores de predição de mortalidade para pacientes com essa condição clínica para melhor tratamento científico. OBJETIVO: Determinar os fatores de risco de mortalidade geral em pacientes com ICC secundária à HAS na era moderna do tratamento da ICC por disfunção sistólica do ventrículo esquerdo. MÉTODOS: Todos os pacientes rotineira e prospectivamente tratados na Clínica de Cardiomiopatia em nossa instituição de janeiro de 2000 a abril de 2008 com o diagnóstico de ICC secundária à HAS foram selecionados para o estudo. O modelo de riscos proporcionais de Cox foi utilizado para o estabelecimento de fatores de predição independentes de mortalidade geral. RESULTADOS: Cento e trinta pacientes foram estudados; 74 (57%) eram homens. Trinta e um (24%) pacientes faleceram; cinco (4%) submeteram-se a transplante cardíaco; e 94 (72%) estavam vivos ao final do estudo. A probabilidade de sobrevivência aos 12, 24, 36, 48 e 60 meses foi de 96%, 93%, 84%, 79% e 76%, respectivamente. Idade (Razão de Riscos = 1,05, Intervalo de Confiança 95% de 1,01 a 1,08, p = 0,01), dimensão diastólica do ventrículo esquerdo (Razão de Riscos = 1,08; Intervalo de Confiança 95% de 1,02 a 1,09; p = 0,003) e terapia com betabloqueador (Razão de Riscos = 0,41; Intervalo de Confiança 95% de 0,19 a 0,86; p = 0,02) foram os fatores de predição independentes de mortalidade geral. CONCLUSÃO: Idade, dimensão diastólica do ventrículo esquerdo e não uso de betabloqueador são fatores de predição independentes de mortalidade geral em pacientes com ICC sistólica secundária à HAS na população estudada.
Resumo:
FUNDAMENTO: O Transplante Cardíaco (TC) é uma alternativa para os indivíduos com doença cardíaca terminal. Na evolução pós-transplante, a ocorrência de episódios de Rejeição Cardíaca (RC) é evento frequente que aumenta a morbimortalidade, sendo necessário o emprego de exame não invasivo com boa acurácia para seu diagnóstico, pois a Biópsia Endomiocárdica (BEM) não é um procedimento isento de complicações. OBJETIVO: Comparar parâmetros obtidos com o princípio Doppler, entre os pacientes transplantados com RC (TX1) e os pacientes transplantados sem rejeição (TX0); utilizando como referência o Grupo Controle (GC) e observando o comportamento da função sistodiastólica ventricular esquerda expressa por meio do Índice de Performance Miocárdica (IPM). MÉTODOS: Foram realizados ecocardiogramas transtorácicos no período de janeiro de 2006 a janeiro de 2008, para a avaliação prospectiva de 47 pacientes, subdivididos em GC (36,2%), TX0 (38,3%) e TX1 (25,5%), comparando-se o IPM entre eles. Para a análise dos dados foram realizados os testes exato de Fisher e o não paramétrico de Kruskal-Wallis, ambos com nível de significância de 5%. RESULTADOS: Os grupos não diferiram em relação a idade, peso, altura e superfície corpórea. Quando comparado ao GC, TX0 e TX1 apresentaram alteração da função sistodiastólica ventricular esquerda, expressa como aumento do IPM, que foi mais intenso no TX1 [0,38 (0,29 - 0,44) X 0,47 (0,43 - 0,56) X 0,58 (0,52 - 0,74) p < 0,001]. CONCLUSÃO: O ecocardiograma mostrou-se como exame de boa acurácia na detecção das alterações da função sistodiastólica do coração transplantado; entretanto, não foi confiável como método substituto da BEM para o diagnóstico seguro de RC.