1000 resultados para Petróleo Prospecção - Métodos de simulação
Resumo:
La verificación y el análisis de programas con características probabilistas es una tarea necesaria del quehacer científico y tecnológico actual. El éxito y su posterior masificación de las implementaciones de protocolos de comunicación a nivel hardware y soluciones probabilistas a problemas distribuidos hacen más que interesante el uso de agentes estocásticos como elementos de programación. En muchos de estos casos el uso de agentes aleatorios produce soluciones mejores y más eficientes; en otros proveen soluciones donde es imposible encontrarlas por métodos tradicionales. Estos algoritmos se encuentran generalmente embebidos en múltiples mecanismos de hardware, por lo que un error en los mismos puede llegar a producir una multiplicación no deseada de sus efectos nocivos.Actualmente el mayor esfuerzo en el análisis de programas probabilísticos se lleva a cabo en el estudio y desarrollo de herramientas denominadas chequeadores de modelos probabilísticos. Las mismas, dado un modelo finito del sistema estocástico, obtienen de forma automática varias medidas de performance del mismo. Aunque esto puede ser bastante útil a la hora de verificar programas, para sistemas de uso general se hace necesario poder chequear especificaciones más completas que hacen a la corrección del algoritmo. Incluso sería interesante poder obtener automáticamente las propiedades del sistema, en forma de invariantes y contraejemplos.En este proyecto se pretende abordar el problema de análisis estático de programas probabilísticos mediante el uso de herramientas deductivas como probadores de teoremas y SMT solvers. Las mismas han mostrado su madurez y eficacia en atacar problemas de la programación tradicional. Con el fin de no perder automaticidad en los métodos, trabajaremos dentro del marco de "Interpretación Abstracta" el cual nos brinda un delineamiento para nuestro desarrollo teórico. Al mismo tiempo pondremos en práctica estos fundamentos mediante implementaciones concretas que utilicen aquellas herramientas.
Resumo:
Las estrategias en el diseño de estructuras estuvieron históricamente limitadas por condicionantes como la eficiencia estructural, la lectura de la estructura explicitando su función, o la estructura planteada a partir de materiales o recursos disponibles. Actualmente, el desarrollo de nuevas tecnologías informáticas, nuevos materiales y la aparición de nuevos paradigmas en cuanto a tecnología sustentable, ha generando una situación de libertad arquitectónica prácticamente total en la que casi cualquier planteo formal puede ser resuelto y construido. Es consecuencia de este proceso la aparición de formas estructurales fracturadas, angulosas, grandes voladizos, y la utilización de materiales y sistemas tecnológicos no convencionales, que requieren de nuevas técnicas auxiliares de proyecto, ejecución y representación, y para las cuales es necesario un nuevo planteamiento y adecuación de estrategias de diseño estructural en relación a la propuesta arquitectónica. Este nuevo escenario proyectual, no está contemplado en los métodos de enseñanza del diseño de estructuras, produciendo un vacío conceptual sobre los futuros profesionales que deberán incursionar en el mundo actual. Es por ello que se propone indagar en diferentes estrategias de diseño para la elaboración de una metodología didáctica que permita descubrir el concepto del proyecto arquitectónico y generar un sistema estructural que se relacione adecuadamente con él, desde una visión integral de la arquitectura como producto cultural complejo.
Resumo:
El hidrógeno tiene, actualmente, una atención considerable por su posible uso como combustible limpio y otros usos industriales y se ha demostrado que es posible hacer funcionar motores de combustión interna, por lo tanto es una alternativa viable respecto de fuentes de energía no renovables como el petróleo y tal vez sea en el futuro la tecnología más prometedora para reducir la contaminación, conservando el suministro de combustibles fósiles. Uno de los principales problemas para la utilización del hidrógeno como combustible es el del almacenamiento para que pueda ser seguro y transportable con todos los riesgos que esto supone. En este sentido el estudio de la adsorción de polímeros conductores (tal como polianilina, PANI o polipirrol PPy) y su posterior polimerización sobre hospedajes como aluminosilicatos meso y microporosos y carbones mesoporosos, es de suma importancia por sus propiedades para el almacenamiento de H2. El objetivo general de este proyecto es Investigar el almacenamiento de hidrógeno en nuevos composites nano/microestructurados. La síntesis de materiales micro/mesoporosos (MFI, MEL, BEA, L, MS41, SBA-15, SBA-1, SBA-3, SBA-16, CMK-3) para usos como hospedaje se realizan por sol-gel o síntesis hidrotérmica y se modificarán con TiO2, CeO2, ZrO2 y eventualmente con Ir, Ni, Zr. Muestras de estos hospedajes serán expuestos a vapores del monómero puro (anilina o pirrol). Luego se polimerizarán por polimerización oxidativa. Los nanocomposites sintetizados se caracterizarán por XRD, FTIR, DSC, TGA, SEM, TEM, EXFAS, XANES, UV-Vis. La adsorción de hidrógeno sobre los composites se llevará a cabo en un Reactor Parr, desde presiones atmosféricas y a altas presiones y varias temperaturas de adsorción . Los estudios de desorción de hidrogeno se llevarán a cabo en un equipo Chemisorb Micrometrics y se realizarán estudios termogravimétricos y de capacidad de retención de Hidrogeno por el nanocomposite. La importancia del estudio de este proceso tiene importantes implicancias económicas y sociales que serán preponderantes en el futuro debido a las cada vez más exigentes regulaciones ambientales. Además se contribuirá al avance del conocimiento científico, ya que es posible diseñar nuevos materiales, los que además permitirán generar reservorios de H2 con alta eficiencia. Por lo consiguiente: - Se desarrollarán nuevos materiales nanoestructurados, micro y mesoporosos y nanoclusters de especies activas en los hospedajes como así también la inclusión de polímeros (PANI, PPy) dentro de los canales de estos materiales. - Se caracterizarán estos materiales por métodos espectroscópicos (fisicoquímica de superficie). - Se estudiará la adsorción /absorcion de H2 en los nuevos materiales desarrollados. -Se aplicarán métodos de diseño de experimento (RDS), para optimizar el proceso de almacenamiento de H2, nivel de interacción de variables sinérgicas o colinérgicas.
Resumo:
El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificarán el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas,produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene un alto componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que más se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales.
Resumo:
A DAC continua sendo uma das principais causas globais de morbimortalidade. Programas amplos de desenvolvimento de drogas para novas estratégias de tratamento medicamentoso freqüentemente utilizam estudos com desfechos de mortalidade/morbidade tradicionais e outros com desfechos substitutos. Essa abordagem paralela permite uma avaliação da eficácia vários anos antes dos dados de estudos com desfechos clínicos estarem disponíveis. Vários marcadores imagenológicos de aterosclerose foram introduzidos nessas estratégias de desenvolvimento de drogas, incluindo angiografia, ultrassonografia de carótida, USIV, RM e TC. Esta revisão discutirá a situação atual dos métodos por imagem da aterosclerose como um desfecho em estudos de progressão/regressão, com ênfase em dados baseados em evidências. Além de uma discussão sobre os resultados das modalidades de métodos por imagem individuais, serão apresentados os dados que têm surgido comparando as diferentes modalidades e abordagens.
Resumo:
FUNDAMENTO: A disfunção endotelial pode ser considerada um evento precoce da aterogênese. OBJETIVO: Avaliar a aterosclerose em transplantados renais através do escore de cálcio coronariano, do duplex scan das carótidas e da reatividade braquial através do ultra-som. MÉTODOS: Avaliamos trinta transplantados renais do sexo masculino com função renal estável, idade média de 41,3 anos. RESULTADOS: A detecção da carga aterosclerótica nesta população foi significativa quando utilizada a técnica da reatividade braquial (86,7%), menos freqüente baseando-se na presença de placa carotídea (33,3%) ou no escore de cálcio coronariano (20%). Placa carotídea foi considerada quando a espessura era superior a 12 mm. O escore de cálcio coronariano foi anormal quando acima de oitenta pela escala de Agatston, sendo observado em um percentual baixo (21,7%) dos pacientes, possivelmente porque a tomografia pode não ser o método ideal para detectar aterosclerose em doentes renais, por não distinguir calcificações intimais da camada média. O controle clínico adequado, a baixa faixa etária e fatores relacionados ao tempo de diálise pré-transplante ou ao efeito antiinflamatório das drogas pós-transplante podem retardar o aparecimento das calcificações. CONCLUSÃO: A avaliação da carga aterosclerótica através do duplex scan das carótidas (33,3%) e do escore de cálcio coronariano (20%) não foi freqüente, não havendo correlação com o elevado índice de detecção de disfunção endotelial observado com o exame da reatividade braquial (86,7%).
Resumo:
FUNDAMENTO: A prevalência de síndrome metabólica (SM), encontrada em diferentes estudos, tem apresentado ampla variação dependendo da população e do critério diagnóstico utilizado, havendo uma tendência de maior prevalência da SM com o critério diagnóstico da International Diabetes Federation (IDF). OBJETIVO: Comparar a prevalência da SM com diferentes critérios em idosos de uma comunidade. MÉTODOS: Este é um estudo transversal, de base populacional, realizado na cidade de Novo Hamburgo - RS, Brasil -, do qual participaram 378 idosos com 60 anos ou mais (252 mulheres e 126 homens). A prevalência da SM foi estimada aplicando os critérios diagnósticos do National Cholesterol Education Program - Adult Treatment Panel III (NCEP ATPIII) (2001), do NCEP ATPIII revisado (2005) e da IDF. RESULTADOS: A prevalência de SM aumentou progressivamente com a utilização dos critérios do NCEP ATP III, NCEP ATP III revisado e da IDF, apresentando valores de 50,3%, 53,4% e 56,9%, respectivamente. O aumento progressivo da prevalência de SM com a utilização dos três critérios ocorreu em ambos os sexos, com maior prevalência entre as mulheres, com percentuais de 57,1%, 59,9% e 63,5% com os critérios do NCEP ATP III, NCEP ATP III revisado e da IDF, respectivamente. CONCLUSÃO: Utilizando o critério da IDF, encontrou-se uma maior prevalência de SM em relação à prevalência encontrada com o critério do NCEP ATP III e NCEP ATP III revisado. A prevalência da SM foi maior entre as mulheres, independente do critério utilizado.
Resumo:
FUNDAMENTO: O consumo de oxigênio de pico (VO2pico) pode ser definido como a maior taxa de consumo de oxigênio durante exercício exaustivo ou máximo. A avaliação da aptidão aeróbica pode ser expressa como relativa à massa corporal, mas esse procedimento pode não remover completamente as diferenças quando indivíduos pesados são avaliados. Assim, o procedimento com escala alométrica é uma estratégia atraente para comparar indivíduos com grandes diferenças em massa corporal. OBJETIVO: Investigar o VO2pico em indivíduos obesos e não-obesos usando o método de correção de massa corporal (convencional) e escala alométrica (método alométrico) e, como esses métodos são aplicados quando indivíduos de ambos os sexos se exercitam em uma esteira ergométrica. MÉTODOS: O VO2pico relativo ao peso corporal e pelo método alométrico foi comparado em 54 adolescentes obesos e 33 não-obesos (10 a 16 anos). Calorimetria indireta foi usada para avaliar o VO2pico durante um teste máximo. O expoente alométrico foi calculado levando-se em consideração a massa corporal individual. Então o VO2pico foi corrigido pelo expoente alométrico. As comparações foram realizadas usando-se two-way ANOVA para medidas repetidas (p<0,05). RESULTADOS: O VO2pico absoluto foi maior (p<0,05) em meninas obesas (2,80±0,69) quando comparadas às não-obesas (2,00±0,24), mas essa relação desapareceu nos indivíduos do sexo masculino (p>0,05). Entretanto, o VO2pico calculado pelo método convencional foi maior (p<0,05) entre indivíduos não-obesos para ambos os sexos (meninas: 41,45±3,85; meninos: 49,81±7,12) em comparação com os obesos (meninas: 32,11±4,48; meninos: 37,54±6,06). O VO2pico alométrico foi similar (p>0,05) entre os grupos. CONCLUSÃO: Indivíduos obesos apresentaram VO2pico mais baixo do que os não-obesos, quando avaliados pelo método convencional. Entretanto, quando o método da escala alométrica foi aplicado, as diferenças desapareceram.
Resumo:
FUNDAMENTO: Apesar de o limiar anaeróbio (LAn) ser utilizado na avaliação funcional de diferentes populações, estudos comparando métodos para sua identificação em diabéticos tipo-2 tem sido pouco realizados. OBJETIVO: Comparar protocolos de identificação do LAn em indivíduos diabéticos tipo 2 e em não-diabéticos, e analisar respostas relacionadas ao equilíbrio ácido-básico em intensidades relativas ao LAn. MÉTODOS: Diabéticos tipo 2 (n=10; 54,5±9,5 anos; 30,1±5,0 kg/m²) e jovens não-diabéticos (n=10; 36,6±12,8 anos; 23,9±5,0 kg/m²) realizaram teste incremental (TI) em ciclo ergômetro. O aumento desproporcional no equivalente ventilatório de oxigênio (VE/VO2) e lactatemia ([lac]) identificaram intensidades (Watts-W) correspondentes aos limiares ventilatório (LV) e de lactato (LL), respectivamente. A intensidade correspondente à menor glicemia ([glic]) foi considerada limiar glicêmico individual (LGI). O LAn também foi determinado por ajuste polinomial das razões VE/Watts (LV VE/W) e [lac]/Watts (LL[lac]/W), as quais identificaram intensidades acima das quais um aumento desproporcional na VE e [lac] ocorreram. RESULTADOS: Não foram observadas diferenças entre LL, LV, LG, LL[lac]/W e LV VE/W em diabéticos (85,0±32,1; 88,0±31,7; 86,0±33,8; 82,0±20,9 e 90,2±22,2W) e não-diabéticos (139,0±39,0; 133,0±42,7; 140,8±36,4; 122,7±44,3 e 133,0±39,1W). Contudo os valores de LAn diferiram significativamente entre grupos (p<0.001). A técnica de Bland-Altman confirmou concordância entre os protocolos. Reduções significativas no pH e pCO2 em paralelo a um aumento na [lac], pO2 e VE foram observadas em intensidades supra limiares. CONCLUSÃO: Os protocolos apresentaram, para ambos os grupos estudados, concordância na identificação do LAn, que se mostrou como uma intensidade de exercício acima da qual ocorre perda de equilíbrio ácido-básico.
Pressão arterial obtida pelos métodos oscilométrico e auscultatório antes e após exercício em idosos
Resumo:
FUNDAMENTO: Diferentes métodos de medida da pressão arterial (PA) têm sido utilizados em avaliações clínicas e científicas. Entretanto, os métodos empregados apresentam limitações e particularidades a serem consideradas. OBJETIVO: Avaliar se valores semelhantes de PA são obtidos em idosos hipertensos submetidos ao exercício resistido, ao usarem-se os métodos oscilométrico (Omron-HEM-431) e auscultatório (esfigmomanômetro de mercúrio). MÉTODOS: Dezesseis idosos hipertensos realizaram três sessões experimentais randomizadas com diferentes volumes: as sessões controle (C: 40 minutos), exercício 1 (E1: 20 minutos) e exercício 2 (E2: 40 minutos). A PA foi medida simultaneamente pelos dois métodos, a cada 5 minutos durante 20 minutos antes das sessões e durante 60 minutos após as mesmas. RESULTADOS: No período pré-intervenção houve boa concordância entre as medidas da pressão arterial sistólica (PAS) e diastólica (PAD) obtidas pelos dois métodos, havendo também elevada concordância geral após as sessões (Coeficiente de Lin = 0,82 e 0,81, respectivamente). Houve melhor concordância da PAD após a sessão controle do que após as sessões de exercício. A diferença entre as medidas obtidas entre os dois métodos foi maior para a PAD do que para a PAS após todas as sessões (p < 0.001). Independentemente do método, pode-se verificar a queda da PAS e da PAD que ocorreram nos primeiros 60 minutos após a realização dos exercícios. CONCLUSÃO: Os métodos auscultatório e oscilométrico foram concordantes antes e após as sessões controle e de exercícios, havendo, no entanto, maiores diferenças da PAD do que da PAS, sendo esta última muito semelhante entre métodos.
Resumo:
FUNDAMENTO: Vários ensaios clínicos randomizados demonstraram a efetividade do cardiodesfibrilador implantável (CDI) na redução de morte de pacientes com insuficiência cardíaca congestiva (ICC). Estudos de países desenvolvidos já avaliaram a custo-efetividade do CDI, porém as informações não são transferíveis para o Brasil. OBJETIVO: Avaliar a custo-efetividade do CDI em pacientes com ICC sob duas perspectivas: pública e saúde suplementar. MÉTODOS: Um modelo de Markov foi criado para analisar a relação de custo-efetividade incremental (RCEI) do CDI, comparado à terapia convencional, em pacientes com ICC. Efetividade foi medida em anos de vida ajustados para qualidade (QALY). Na literatura, buscaram-se dados de efetividade e complicações. Custos foram extraídos das tabelas do SUS e de valores praticados pelos convênios, assim como médias de internações hospitalares. Análises de sensibilidade univariadas foram feitas em todas as variáveis do modelo. RESULTADOS: A RCEI foi de R$ 68.318/QALY no cenário público e R$ 90.942/QALY no privado. Esses valores são superiores aos sugeridos como pontos de corte pela Organização Mundial da Saúde, de três vezes o PIB per capita (R$ 40.545 no Brasil). Variáveis mais influentes na análise de sensibilidade foram: custo do CDI, intervalo de troca do gerador e efetividade do CDI. Em simulação de cenário semelhante ao MADIT-I, as relações foram de R$ 23.739/QALY no cenário público e R$ 33.592/QALY no privado. CONCLUSÃO: Para a população em geral com ICC, a relação de RCEI do CDI, tanto na perspectiva pública como na privada, é elevada. Resultados mais favoráveis ocorrem em pacientes com alto risco de morte súbita.
Resumo:
FUNDAMENTO: Pela redução da especificidade associada à perda de informação, a influência da atenuação das mamas é de fundamental importância em estudos de perfusão do miocárdio. Entretanto, apesar de vários estudos terem sido realizados ao longo dos últimos anos, pouco se tem evoluído para determinar com acurácia a influência das características das mamas sobre a qualidade da cintilografia miocárdica, evitando exposições adicionais de radiação às pacientes. OBJETIVO: O objetivo deste estudo é quantificar a atenuação de fótons pelas mamas, em estudos de perfusão do miocárdio com 99mTc, de acordo com diferentes tamanhos e composições. MÉTODOS: Cada mama foi assumida como sendo um cubo composto de tecido adiposo e fibroglandular. Os dados referentes aos fótons de 99mTc foram analisados em um modelo de Monte Carlo. Variamos a espessura e a composição das mamas e analisamos as interferências na atenuação. Foi empregado o software EGS 4 para as simulações. RESULTADOS: Fixando a espessura de uma mama, a variação da sua composição acarreta um acréscimo máximo de 2,3% no número de fótons atenuados. Em contrapartida, mantendo-se uma composição do tecido mamário fixa, a diferença na atenuação de fótons foi de 45,0%, sendo em média de 6,0% para cada acréscimo de centímetro na espessura da mama. CONCLUSÃO: A simulação por Monte Carlo demonstrou que a influência das espessuras das mamas na atenuação de fótons em cintilografias do miocárdio com 99mTc é muito maior do que a influência das suas composições.
Resumo:
FUNDAMENTO: Até o momento, nenhum registro brasileiro foi desenhado para documentar a prática clínica em relação ao atendimento de pacientes de alto risco cardiovascular em uma representativa e ampla amostra de centros investigadores, incluindo hospitais públicos e privados em âmbito nacional. Sendo assim, este estudo permitirá identificar os hiatos na incorporação de intervenções com benefício comprovado em nosso meio. OBJETIVO: Elaborar um registro dedicado à aferição da prática clínica brasileira no que se refere ao atendimento do paciente cardiovascular classificado como de alto risco. MÉTODOS: Estudo observacional do tipo registro, prospectivo, visando documentar a prática clínica atual aplicada a nível ambulatorial para pacientes de alto risco cardiovascular, classificados quando da presença de uma das variáveis: evidência de doença arterial coronariana, doença cerebrovascular, vascular periférica, em diabéticos ou não diabéticos; ou na presença de pelo menos três dos seguintes fatores de risco cardiovascular: hipertensão arterial sistêmica, tabagismo ativo, dislipidemia, idade superior a 70 anos, nefropatia crônica, história familiar de doença arterial coronariana e ou doença carotídea assintomática. Os pacientes serão coletados em 43 centros de todas as regiões brasileiras, incluindo hospitais públicos e privados, assim como em unidades básicas de atendimento a saúde, e revisados clinicamente até um ano após a inclusão. RESULTADOS: Os resultados serão apresentados um ano após o início da coleta (setembro de 2011), e consolidados, após a reunião da população e dos objetivos almejados posteriormente. CONCLUSÃO: A análise deste registro multicêntrico permitirá projetar uma perspectiva horizontal do tratamento dos pacientes acometidos da doença cardiovascular no Brasil.
Resumo:
FUNDAMENTO: Aferição da prática clínica brasileira em pacientes com síndrome coronariana aguda, em hospitais públicos e privados, permitirá identificar os hiatos na incorporação de intervenções clínicas com benefício comprovado. OBJETIVO: Elaborar um registro de pacientes portadores do diagnóstico de síndrome coronariana aguda para aferir dados demográficos, morbidade, mortalidade e prática padrão no atendimento desta afecção. Ademais, avaliar a prescrição de intervenções baseadas em evidências, como a aspirina, estatinas, betabloqueadores e reperfusão, dentre outras. MÉTODOS: Estudo observacional do tipo registro, prospectivo, visando documentar a prática clínica hospitalar da síndrome coronária aguda, efetivada em hospitais públicos e privados brasileiros. Adicionalmente, serão realizados seguimento longitudinal até a alta hospitalar e aferição da mortalidade e ocorrência de eventos graves aos 30 dias, 6 e 12 meses. RESULTADOS: Os resultados serão apresentados um ano após o início da coleta (setembro de 2011) e consolidados após a reunião da população e dos objetivos posteriormente almejados. CONCLUSÃO: A análise desse registro multicêntrico permitirá projetar uma perspectiva horizontal do tratamento dos pacientes acometidos da síndrome coronariana aguda no Brasil.
Resumo:
FUNDAMENTO: A telecardiologia é instrumento que pode auxiliar na atenção cardiovascular, principalmente em municípios localizados em áreas remotas. Entretanto, as avaliações econômicas sobre o assunto são escassas e com resultados controversos. OBJETIVO: Avaliar o custo-benefício da implantação do serviço de telecardiologia em municípios remotos, de pequeno porte, no estado de Minas Gerais, Brasil. MÉTODOS: O estudo utilizou a base de dados do Projeto Minas Telecardio (MTC), desenvolvido de junho/2006 a novembro/2008, em 82 municípios do interior do estado. Cada município recebeu um microcomputador com eletrocardiógrafo digital, com possibilidade de envio dos traçados e comunicação com plantão de cardiologia em pólo universitário. A análise custo-benefício foi realizada comparando o custo de realização de um ECG no projeto MTC ao custo de realizar este exame por encaminhamento em outra localidade. RESULTADOS: O custo médio de um ECG no projeto MTC foi de R$ 28,92, decomposto em R$ 8,08 referente ao custo de implantação e R$ 20,84 ao de manutenção do programa. A simulação do custo do ECG com encaminhamento variou de R$ 30,91 a R$ 54,58, sendo a relação custo-benefício sempre favorável ao programa MTC, independente da forma de cálculo da distância de encaminhamento. Nas simulações, foram consideradas as abordagens do financiador e da sociedade. A análise de sensibilidade com variação dos parâmetros de calibração confirmou esses resultados. CONCLUSÃO: A implantação de sistema de telecardiologia como apoio a atenção primária em cidades brasileiras de pequeno porte é factível e economicamente benéfica, podendo ser transformada em programa regular do sistema público de saúde.