1000 resultados para algoritmos de confiabilidade
Resumo:
Este proyecto cuenta con 7 subproyectos.Subproyecto: Restricciones de representaciones de cuadrado integrable.Se continuará trabajando en el problema de restringir representaciones de cuadrado integrable en un grupo de Lie a un subgrupo semisimple o la factor unipotente de un subgrupo parabólico. En particular, se continuará analizando el caso de restringir desde el grupo SO(2n,1) al subgrupo SO(2) x SO(2n-2,1) y al factor unipotente del parabólico minimal de un grupo de Lie clásico de rango uno. Subproyecto: Representación metapléctica y grupos de Heisenberg generalizados. Se estudia la restricción de la representación metapléctica a subgrupos del grupo metapléctico. Subproyecto: Álgebras de tipo H. Se estudiarán estructuras de biálgebra en las álgebras de tipo H, álgebras de Lie nilpotentes de dos etapas. Se continuará con el estudio de cuantizaciones de álgebras de tipo H. Se estudiarán propiedades geométricas de las funciones theta generalizadas que surgen de álgebras de tipo H. Subproyecto: Módulos de peso máximo. Se intenta dar una respuesta al problema de clasificación de módulos quasifinitos de peso máximo sobre ciertas álgebras de dimensión infinita. Subproyecto: Cuantización de las álgebras de tipo H. Se tratará de cuantizar las álgebras de tipo H, álgebras de Lie nilpotentes de dos etapas. Se trabajará con una definición más general de las álgebras de Heisenberg, tratando de encontrar teoremas tipo Stone-Von Neumann y generalizaciones de las funciones theta. Subproyecto: Continuación analítica de integrales de coeficientes matriciales. Se analiza la existencia de continuación holomorfa de la integral a lo largo de un grupo semisimple real de las potencias complejas de un coeficiente matricial de una representación irreducible admisible. Subproyecto: Cálculo explícito de soluciones fundamentales de operadores invariantes. Se analizan condiciones en el polinomio que define un operador diferencial k-invariante para que resulte hipoellítico. Se trata en particular el caso del grupo SO(n,1). Subproyecto 7: Generadores de Goldie. Se trata de encontrar algoritmos para el cálculo de generadores de Goldie.
Resumo:
Este proyecto tiene por objetivo desarrollar y construir un vehículo inteligente capaz de transportar y conferir movilidad a un brazo manipulador. El conjunto será capaz de, entre otras prestaciones, efectuar transferencia de piezas y partes entre celdas de un sistema de producción flexible o entre diversas secciones en una planta industrial, realizar tareas en zonas agresivas, peligrosas o contaminadas en forma autónoma o telecomandada, etc. Se pretende además que el vehículo conforme un banco de ensayos móvil donde se demuestren y desarrollen tecnologías relacionadas con los procesos automáticos de manufactura. (...) Se prevén las siguientes etapas: a.- Construcción de la plataforma base (estructural) con sus sistemas asociados (guiado, potencia, control y frenado). b.- Desarrollo de un sistema de navegación inercial en el plano. b.1.- Plataforma inercial: construcción de sus transductores, montaje, integración, ensayo. b.2.- Desarrollo del software para navegación inercial. c.- Desarrollo de un sistema de navegación por reconocimiento del entorno. c.1.- Desarrollo de los algoritmos de reconocimiento de imágenes y correlación de las mismas (en colaboración con la Facultad Regional Mendoza). c.2.- Desarrollo de los algoritmos de navegación por medio de reconocimiento del entorno. d.- Desarrollo de un sistema de guiado básico destinado a servir de soporte a los sistemas anteriores. La secuencia de tareas es: Año 1: Tareas a) y d). Comienzo de b) y c). Año 2: Prosecución de tareas b) y c). Año 3: Conclusión. Documentación final.
Resumo:
FUNDAMENTO: A complexidade da farmacoterapia consiste de múltiplas características do regime prescrito, incluindo o número de diferentes medicações no esquema, o número de unidades de dosagem por dose, o número total de doses por dia e os cuidados na administração dos medicamentos. O Medication Regimen Complexity Index (MRCI) é um instrumento específico, validado e utilizado para medir a complexidade da farmacoterapia, desenvolvido originalmente em língua inglesa. OBJETIVO: Tradução transcultural e validação desse instrumento para o português do Brasil. MÉTODOS: Foi desenvolvido um estudo transversal envolvendo 95 pacientes com diabete do tipo 2 utilizando múltiplas medicações. O processo de validação teve início pela tradução, retrotradução e pré-teste do instrumento, gerando uma versão adaptada chamada Índice de Complexidade da Farmacoterapia (ICFT). Em seguida foram analisados parâmetros psicométricos, incluindo validade convergente, validade divergente, confiabilidade entre avaliadores e teste-reteste. RESULTADOS: A complexidade da farmacoterapia medida pelo ICFT obteve média de 15,7 pontos (desvio padrão = 8,36). O ICFT mostrou correlação significativa com o número de medicamentos em uso (r = 0,86; p < 0,001) e a idade dos pacientes (r = 0,28; p = 0,005). A confiabilidade entre avaliadores obteve correlação intraclasse igual a 0,99 (p < 0,001) e a confiabilidade teste-reteste obteve correlação de 0,997 (p < 0,001). CONCLUSÃO: Os resultados demonstraram que o ICFT apresenta bom desempenho de validade e confiabilidade, podendo ser utilizado como ferramenta útil na prática clínica e em pesquisas envolvendo análise da complexidade da terapia.
Resumo:
Nuevas biotecnologías, como los marcadores de la molécula de ADN, permiten caracterizar el genoma vegetal. El uso de la información genómica producida para cientos o miles de posiciones cromosómicas permite identificar genotipos superiores en menos tiempo que el requerido por la selección fenotípica tradicional. La mayoría de los caracteres de las especies vegetales cultivadas de importancia agronómica y económica, son controlados por poli-genes causantes de un fenotipo con variación continua, altamente afectados por el ambiente. Su herencia es compleja ya que resulta de la interacción entre genes, del mismo o distinto cromosoma, y de la interacción del genotipo con el ambiente, dificultando la selección. Estas biotecnologías producen bases de datos con gran cantidad de información y estructuras complejas de correlación que requieren de métodos y modelos biométricos específicos para su procesamiento. Los modelos estadísticos focalizados en explicar el fenotipo a partir de información genómica masiva requieren la estimación de un gran número de parámetros. No existen métodos, dentro de la estadística paramétrica capaces de abordar este problema eficientemente. Además los modelos deben contemplar no-aditividades (interacciones) entre efectos génicos y de éstos con el ambiente que son también dificiles de manejar desde la concepción paramétrica. Se hipotetiza que el análisis de la asociación entre caracteres fenotípicos y genotipos moleculares, caracterizados por abundante información genómica, podría realizarse eficientemente en el contexto de los modelos mixtos semiparamétricos y/o de métodos no-paramétricos basados en técnicas de aprendizaje automático. El objetivo de este proyecto es desarrollar nuevos métodos para análisis de datos que permitan el uso eficiente de información genómica masiva en evaluaciones genéticas de interés agro-biotecnológico. Los objetivos específicos incluyen la comparación, respecto a propiedades estadísticas y computacionales, de estrategias analíticas paramétricas con estrategias semiparamétricas y no-paramétricas. Se trabajará con aproximaciones por regresión del análisis de loci de caracteres cuantitativos bajo distintas estrategias y escenarios (reales y simulados) con distinto volúmenes de datos de marcadores moleculares. En el área paramétrica se pondrá especial énfasis en modelos mixtos, mientras que en el área no paramétrica se evaluarán algoritmos de redes neuronales, máquinas de soporte vectorial, filtros multivariados, suavizados del tipo LOESS y métodos basados en núcleos de reciente aparición. La propuesta semiparamétrica se basará en una estrategia de análisis en dos etapas orientadas a: 1) reducir la dimensionalidad de los datos genómicos y 2) modelar el fenotipo introduciendo sólo las señales moleculares más significativas. Con este trabajo se espera poner a disposición de investigadores de nuestro medio, nuevas herramientas y procedimientos de análisis que permitan maximizar la eficiencia en el uso de los recursos asignados a la masiva captura de datos genómicos y su aplicación en desarrollos agro-biotecnológicos.
Resumo:
La verificación y el análisis de programas con características probabilistas es una tarea necesaria del quehacer científico y tecnológico actual. El éxito y su posterior masificación de las implementaciones de protocolos de comunicación a nivel hardware y soluciones probabilistas a problemas distribuidos hacen más que interesante el uso de agentes estocásticos como elementos de programación. En muchos de estos casos el uso de agentes aleatorios produce soluciones mejores y más eficientes; en otros proveen soluciones donde es imposible encontrarlas por métodos tradicionales. Estos algoritmos se encuentran generalmente embebidos en múltiples mecanismos de hardware, por lo que un error en los mismos puede llegar a producir una multiplicación no deseada de sus efectos nocivos.Actualmente el mayor esfuerzo en el análisis de programas probabilísticos se lleva a cabo en el estudio y desarrollo de herramientas denominadas chequeadores de modelos probabilísticos. Las mismas, dado un modelo finito del sistema estocástico, obtienen de forma automática varias medidas de performance del mismo. Aunque esto puede ser bastante útil a la hora de verificar programas, para sistemas de uso general se hace necesario poder chequear especificaciones más completas que hacen a la corrección del algoritmo. Incluso sería interesante poder obtener automáticamente las propiedades del sistema, en forma de invariantes y contraejemplos.En este proyecto se pretende abordar el problema de análisis estático de programas probabilísticos mediante el uso de herramientas deductivas como probadores de teoremas y SMT solvers. Las mismas han mostrado su madurez y eficacia en atacar problemas de la programación tradicional. Con el fin de no perder automaticidad en los métodos, trabajaremos dentro del marco de "Interpretación Abstracta" el cual nos brinda un delineamiento para nuestro desarrollo teórico. Al mismo tiempo pondremos en práctica estos fundamentos mediante implementaciones concretas que utilicen aquellas herramientas.
Resumo:
El crecimiento exponencial del tráfico de datos es uno de los mayores desafíos que enfrentan actualmente los sistemas de comunicaciones, debiendo los mismos ser capaces de soportar velocidades de procesamiento de datos cada vez mas altas. En particular, el consumo de potencia se ha transformado en uno de los parámetros de diseño más críticos, generando la necesidad de investigar el uso de nuevas arquitecturas y algoritmos para el procesamiento digital de la información. Por otro lado, el análisis y evaluación de nuevas técnicas de procesamiento presenta dificultades dadas las altas velocidades a las que deben operar, resultando frecuentemente ineficiente el uso de la simulación basada en software como método. En este contexto, el uso de electrónica programable ofrece una oportunidad a bajo costo donde no solo se evaluan nuevas técnicas de diseño de alta velocidad sino también se valida su implementación en desarrollos tecnológicos. El presente proyecto tiene como objetivo principal el estudio y desarrollo de nuevas arquitecturas y algoritmos en electrónica programable para el procesamiento de datos a alta velocidad. El método a utilizar será la programación en dispositivos FPGA (Field-Programmable Gate Array) que ofrecen una buena relación costo-beneficio y gran flexibilidad para integrarse con otros dispositivos de comunicaciones. Para la etapas de diseño, simulación y programación se utilizaran herramientas CAD (Computer-Aided Design) orientadas a sistemas electrónicos digitales. El proyecto beneficiara a estudiantes de grado y postgrado de carreras afines a la informática y las telecomunicaciones, contribuyendo al desarrollo de proyectos finales y tesis doctorales. Los resultados del proyecto serán publicados en conferencias y/o revistas nacionales e internacionales y divulgados a través de charlas de difusión y/o encuentros. El proyecto se enmarca dentro de un área de gran importancia para la Provincia de Córdoba, como lo es la informática y las telecomunicaciones, y promete generar conocimiento de gran valor agregado que pueda ser transferido a empresas tecnológicas de la Provincia de Córdoba a través de consultorias o desarrollos de productos.
Resumo:
FUNDAMENTO: A avaliação da qualidade de vida tem sido considerada um parâmetro fundamental na compreensão do impacto causado pela hipertensão arterial. OBJETIVO: Traduzir, adaptar culturalmente e validar para a língua portuguesa o questionário específico para avaliação de qualidade de vida em hipertensão denominado "Mini-Cuestionario de Calidad de Vida em Hipertensión Arterial" (MINICHAL). MÉTODOS: Foram realizadas duas traduções independentes do MINICHAL para o português do Brasil. Posteriormente, as duas traduções foram harmonizadas gerando uma versão que foi retrotraduzida. Essa versão foi revisada por um comitê de juízes e a versão gerada foi testada em um ensaio piloto. Após a adaptação transcultural, a versão final do instrumento foi aplicada em uma amostra de 300 pacientes. Foram analisadas as propriedades psicométricas do questionário, como confiabilidade e validade de constructo. A consistência interna do instrumento foi verificada pelo coeficiente Alpha de Cronbach. RESULTADOS: A versão brasileira do MINICHAL apresentou na análise da consistência interna valores de Alpha de Cronbach de 0,88 para o domínio Estado Mental e 0,86 para Manifestações Somáticas. Na análise de validade de conteúdo a avaliação dos juízes apresentou alto índice de concordância (75,44%). A análise fatorial confirmou os dois fatores, com diferenças em um item, o qual foi incluído no fator 2. O grupo controle apresentou diferenças significativas com relação aos hipertensos t=4,86, gl=276,8, p<0,001. CONCLUSÃO: A versão brasileira do MINICHAL foi validada com sucesso e representa um instrumento útil para avaliação da qualidade de vida de pacientes hipertensos brasileiros.
Resumo:
En dispositivos electrónicos de última generación destinados a funciones de comunicación o control automático, los algoritmos de procesamiento digital de señales trasladados al hardware han ocupado un lugar fundamental. Es decir el estado de arte en el área de las comunicaciones y control puede resumirse en algoritmos basados en procesamiento digital de señales. Las implementaciones digitales de estos algoritmos han sido estudiadas en áreas de la informática desde hace tiempo. Sin embargo, aunque el incremento en la complejidad de los algoritmos modernos permite alcanzar desempeños atractivos en aplicaciones específicas, a su vez impone restricciones en la velocidad de operación que han motivado el diseño directamente en hardware de arquitecturas para alto rendimiento. En este contexto, los circuitos electrónicos basados en lógica programable, principalmente los basados en FPGA (Field-Programmable Gate Array), permiten obtener medidas de desempeño altamente confiables que proporcionan el acercamiento necesario hacia el diseño electrónico de circuitos para aplicaciones específicas “ASIC-VLSI” (Application Specific Integrated Circuit - Very Large Scale Integration). En este proyecto se analiza el diseño y la implementación de aquitecturas electrónicas para el procesamiento digital de señales, con el objeto de obtener medidas reales sobre el comportamiento del canal inalámbrico y su influencia sobre la estimación y el control de trayectoria en vehículos aéreos no tripulados (UAV, Unmanned Aerial Vehicle). Para esto se propone analizar un dispositivo híbrido basado en microcontroladores y circuitos FPGA y sobre este mismo dispositivo implementar mediante algoritmo un control de trayectoria que permita mantener un punto fijo en el centro del cuadro de una cámara de video a bordo de un UAV, que sea eficiente en términos de velocidad de operación, dimensiones y consumo de energía.
Resumo:
Este proyecto se enmarca en la utlización de métodos formales (más precisamente, en la utilización de teoría de tipos) para garantizar la ausencia de errores en programas. Por un lado se plantea el diseño de nuevos algoritmos de chequeo de tipos. Para ello, se proponen nuevos algoritmos basados en la idea de normalización por evaluación que sean extensibles a otros sistemas de tipos. En el futuro próximo extenderemos resultados que hemos conseguido recientemente [16,17] para obtener: una simplificación de los trabajos realizados para sistemas sin regla eta (acá se estudiarán dos sistemas: a la Martin Löf y a la PTS), la formulación de estos chequeadores para sistemas con variables, generalizar la noción de categoría con familia utilizada para dar semántica a teoría de tipos, obtener una formulación categórica de la noción de normalización por evaluación y finalmente, aplicar estos algoritmos a sistemas con reescrituras. Para los primeros resultados esperados mencionados, nos proponemos como método adaptar las pruebas de [16,17] a los nuevos sistemas. La importancia radica en que permitirán tornar más automatizables (y por ello, más fácilmente utilizables) los asistentes de demostración basados en teoría de tipos. Por otro lado, se utilizará la teoría de tipos para certificar compiladores, intentando llevar adelante la propuesta nunca explorada de [22] de utilizar un enfoque abstracto basado en categorías funtoriales. El método consistirá en certificar el lenguaje "Peal" [29] y luego agregar sucesivamente funcionalidad hasta obtener Forsythe [23]. En este período esperamos poder agregar varias extensiones. La importancia de este proyecto radica en que sólo un compilador certificado garantiza que un programa fuente correcto se compile a un programa objeto correcto. Es por ello, crucial para todo proceso de verificación que se base en verificar código fuente. Finalmente, se abordará la formalización de sistemas con session types. Los mismos han demostrado tener fallas en sus formulaciones [30], por lo que parece conveniente su formalización. Durante la marcha de este proyecto, esperamos tener alguna formalización que dé lugar a un algoritmo de chequeo de tipos y a demostrar las propiedades usuales de los sistemas. La contribución es arrojar un poco de luz sobre estas formulaciones cuyos errores revelan que el tema no ha adquirido aún suficiente madurez o comprensión por parte de la comunidad. This project is about using type theory to garantee program correctness. It follows three different directions: 1) Finding new type-checking algorithms based on normalization by evaluation. First, we would show that recent results like [16,17] extend to other type systems like: Martin-Löf´s type theory without eta rule, PTSs, type systems with variables (in addition to systems in [16,17] which are a la de Bruijn), systems with rewrite rules. This will be done by adjusting the proofs in [16,17] so that they apply to such systems as well. We will also try to obtain a more general definition of categories with families and normalization by evaluation, formulated in categorical terms. We expect this may turn proof-assistants more automatic and useful. 2) Exploring the proposal in [22] to compiler construction for Algol-like languages using functorial categories. According to [22] such approach is suitable for verifying compiler correctness, claim which was never explored. First, the language Peal [29] will be certified in type theory and we will gradually add funtionality to it until a correct compiler for the language Forsythe [23] is obtained. 3) Formilizing systems for session types. Several proposals have shown to be faulty [30]. This means that a formalization of it may contribute to the general understanding of session types.
Resumo:
El objetivo general de este proyecto es contribuir al desarrollo de metodologías bioinformáticas que integren la información sobre niveles de expresión de genes obtenida mediante el uso de tecnologías de alto rendimiento en proteómica, microarreglos de ADN y/o secuenciamiento de nueva generación, junto con información clínica y funcional, a los efectos de mejorar la comprensión del fenómeno biológico bajo estudio. Como modelo de trabajo utilizaremos el cáncer de mama; sin embargo, las herramientas resultantes serán de aplicación más general. El proyecto consta de dos objetivos específicos: 1. Integrar información de expresión genómica, clínica y ontológica, para establecer si existen características funcionales que distinguen los diferentes tipos moleculares definidos para el cáncer de mama, y que puedan ser determinables utilizando las variables mencionadas. Los algoritmos de integración de los datos se desarrollarán en forma independiente de la plataforma tecnológica y población bajo estudio, utilizando información disponible en repositorios de libre acceso. 2. Aplicar la metodología de integración surgida del objetivo 1 para caracterizar los diferentes tipos de cáncer de mama de la población argentina, utilizando datos clínicos e información de diferentes tecnologías de alto rendimiento (proteómica, transcriptómica y genómica).
Resumo:
FUNDAMENTO: O Maugerl CaRdiac preventiOn-Questionnaire (MICRO-Q) é um instrumento específico, validado e utilizado para avaliar o conhecimento do paciente coronariano sobre aspectos relacionados à prevenção secundária da doença arterial coronariana (DAC). OBJETIVO: Traduzir, adaptar e validar o MICRO-Q para a língua portuguesa do Brasil. MÉTODOS: Duas traduções iniciais independentes foram realizadas para o português. Após sua comparação foi feita a tradução reversa, que foi revisada por um comitê e gerou a versão final, testada em um estudo-piloto. O instrumento foi aplicado em 212 pacientes coronarianos, com idade média de 60 a 72 anos (desvio padrão = 9,4; mín = 35; máx = 86), participantes de programas de reabilitação cardíaca. A consistência interna foi verificada por meio do coeficiente Alpha de Cronbach, a correlação através do Spearman Rho e a validade de construto foi verificada por análise fatorial exploratória. As médias foram analisadas comparando as escalas das questões corretas em função de variáveis, como idade, sexo, comorbidades associadas, grau de escolaridade, renda familiar, entre outros. RESULTADOS: A versão brasileira do MICRO-Q possui 25 questões. Essa versão, quanto à confiabilidade, apresentou Alpha de Cronbach de 0,64 e Spearman Rho das respostas corretas de 0,65. A análise fatorial revelou a existência de 6 fatores, relacionados aos domínios de conhecimento do questionário. A análise das características da população, em função das escalas das questões corretas, apresentou diferenças significativas apenas em função da renda familiar mensal e grau de escolaridade. CONCLUSÃO: A versão brasileira do MICRO-Q aprovada apresenta validade e confiabilidade adequadas para sua utilização em futuras pesquisas.
Resumo:
FUNDAMENTO: O conhecimento sobre a doença arterial coronariana pode ser considerado o primeiro passo para reduzir o risco de complicações cardíacas. OBJETIVOS: Construir e validar um instrumento capaz de avaliar e descrever o conhecimento do paciente coronariano em programas de reabilitação cardíaca, com a finalidade de educação. MÉTODOS: Para construção, foi realizada análise de artigos e estudo de campo para a apresentação de itens a uma equipe multidisciplinar associada à reabilitação cardíaca. Após análise, foi gerada a versão testada em um estudo-piloto. O instrumento, nomeado CADE-Q (Questionário para Educação do Paciente Coronariano), foi aplicado em 155 pacientes com idade de 61 ± 9 anos (mín = 36 ; máx = 86), participantes de programas de reabilitação cardíaca. Dos 155 pacientes, 114 eram homens. A consistência interna foi verificada pelo coeficiente Alpha de Cronbach. A reprodutibilidade foi testada através do coeficiente de correlação intraclasse (CCIC) e a validade de construto por análise fatorial exploratória. Foi realizada análise comparando os escores totais em função de características da população e entre os grupos de reabilitação (privado e público). RESULTADOS: A versão final possui 19 questões com 4 alternativas, com 4 quadrantes de conhecimento. O Alpha de Cronbach foi de 0,68 e CCIC foi de 0,783. A análise fatorial revelou 6 fatores, abrangendo três áreas de conhecimento, o que demonstra a multifatoriedade do instrumento. A análise das características da população em função do escore total apresentou diferenças significativas em função das variáveis do nível socioeconômico (tipo de reabilitação, renda familiar e escolaridade). CONCLUSÃO: O instrumento CADE-Q apresenta validade e confiabilidade adequadas para sua utilização na população brasileira em futuras pesquisas.
Avaliação do sistema locomotor de pacientes de programas de reabilitação cardiopulmonar e metabólica
Resumo:
FUNDAMENTO: Participantes dos programas de reabilitação cardiopulmonar e metabólica (RCPM) podem apresentar alterações locomotoras que prejudiquem a aderência e a efetividade do tratamento. OBJETIVO: Desenvolver instrumento para avaliar o sistema locomotor e identificar problemas, principalmente aqueles relacionados com o exercício, possibilitando a triagem dos pacientes, ou seja, liberação sem restrições, liberação com restrições e não liberação antes de aval especializado. MÉTODOS: Construção e validação (segundo o alfa de Cronbach) de inventário de avaliação do sistema locomotor (IASL), para subsequente aplicação em participantes da RCPM. RESULTADOS: Por meio do IASL, cuja avaliação interna apresentou parâmetros de validade e confiabilidade satisfatórios, foram avaliados 103 indivíduos participantes de programas de RCPM, sendo 33 homens (32%) e 70 mulheres (68%), com idades entre 36 e 84 anos, dos quais 47 (45,6%) já haviam recebido diagnóstico de problema do sistema locomotor, 39 (37,9%) já haviam recebido tratamento específico para o sistema locomotor, 33 (32%) costumavam usar fármacos para alívio de sintomas do sistema locomotor, e 10 (9,7%) haviam recebido proibição médica para algum tipo de exercício. Ressalte-se que 48 indivíduos (46,6%) relataram sentir dor no sistema locomotor que, em 14 (13,6%) deles, piorava com o exercício, o que deveria impedir a participação em programa de exercícios antes de aval de especialista. CONCLUSÃO: O IASL, que apresentou parâmetros de validade e confiabilidade satisfatórios, evidenciou que, para praticamente metade dos participantes de programas de RCPM, existia alguma restrição para a prática de exercícios e que alguns não deveriam ter sido liberados sem o aval de especialista.
Resumo:
A estimulação ventricular direita convencional pode estar associada a efeitos deletérios sobre a função cardíaca. A necessidade de uma estimulação cardíaca artificial mais fisiológica é, indiscutivelmente, um dos pontos mais importantes na área da eletroterapia cardíaca. Os algoritmos de programação para a manutenção da condução atrioventricular própria, a estimulação de sítios endocárdicos alternativos e a terapia de ressincronização cardíaca são utilizados com o intuito de alcançar este objetivo. A estimulação do feixe de His e a estimulação septal têm sido estudadas como sítios endocárdicos alternativos para o posicionamento do eletrodo no ventrículo direito. A estimulação septal representa uma alternativa simples, prática e sem custos adicionais e com potenciais benefícios na redução dos efeitos deletérios da estimulação do ventrículo direito. Entretanto, esse sítio alternativo envolve um grupo heterogêneo de pacientes e apresenta resultados conflitantes quanto ao seu benefício clínico a longo prazo. Este artigo faz uma revisão das evidências científicas sobre os sítios alternativos de estimulação ventricular direita, com ênfase na segurança do procedimento, na medida dos parâmetros eletrofisiológicos, na avaliação da função ventricular esquerda e no acompanhamento clínico dos pacientes.
Resumo:
O teste de inclinação (TI) é muito utilizado para a investigação de síncopes e pré-síncopes, pois possibilita o diagnóstico de diferentes tipos de disautonomias. A principal causa de síncope é a Síndrome Vasovagal, cujo diagnóstico é o mais frequente entre as indicações de TI. O exame é utilizado há cerca de 20 anos, mas muitos médicos desconhecem a metodologia. São importantes a indicação apropriada, após exclusão de causas cardíacas de síncope, e a orientação do paciente para garantir a tranquilidade e a segurança do teste. Existem controvérsias na literatura sobre a capacidade diagnóstica e a confiabilidade dos resultados. Os estudos com protocolos diversos podem explicar a variabilidade dos resultados. Nesta revisão, são colocadas as indicações e a metodologia recomendadas pelas diretrizes, complicações, limitações e perspectivas desse exame.