951 resultados para Normal approximation
Resumo:
FUNDAMENTO: A insuficiência cardíaca com fração de ejeção normal (ICFEN) é hoje o modelo mais prevalente de IC em diferentes estudos epidemiológicos, e anormalidades na função sistólica de grau leve (subclínica) têm sido observadas nesses pacientes quando a contratilidade do ventrículo esquerdo (VE) é avaliada no eixo longitudinal (S') pelo ecocardiograma Doppler tecidual (EDT), mesmo na presença de fração de ejeção do VE normal. OBJETIVO: Avaliar se pacientes com diagnóstico de ICFEN, de acordo com os novos critérios da Sociedade Europeia de Cardiologia, apresentam alterações da função sistólica constatada pela medida de S' quando comparados com os pacientes em que a ICFEN não foi confirmada. MÉTODOS: Cento e dezoito pacientes com sinais ou sintomas de IC foram submetidos a dosagem de BNP e ao EDT com medidas da velocidade do eixo longitudinal na sístole (S') e diástole (E') e medidas do fluxo transmitral durante a diástole (E,A). RESULTADOS: ICFEN foi confirmada em 38 pacientes (32,2%). O pico da velocidade miocárdica durante a sístole (S') e a velocidade miocárdica no inicio da diástole (E') estavam significativamente diminuídas em pacientes com ICFEN em relação aos pacientes em que a ICFEN foi excluída (7,8 ± 2,3 cm/s vs 9,4 ± 2,5 cm/s p=0,002 - 7,7 ± 2,6 cm/s vs 9,4 ± 2,5 cm/s-p=0,001). Valores médios de BNP foram mais elevados em pacientes com ICFEN (140,5 ± 122,4 pg/ml vs 23,1 ± 25,0 pg/ml p< 0,0001). S' se correlacionou de modo significativo com E' (r=0,457 - p< 0,0001) mostrando uma forte ligação entre contração e relaxamento ventricular. CONCLUSÃO: Nossos achados mostram redução da função sistólica, quando avaliada pelo S', na ICFEN, existindo correlação linear entre o grau de disfunção sistólica (S') e diastólica (E/E'e E').
Resumo:
FUNDAMENTO: O modelo fisiopatológico da insuficiência cardíaca com fração de ejeção normal (ICFEN) está centrado na presença de disfunção diastólica, o que ocasiona mudanças estruturais e funcionais no átrio esquerdo (AE). A medida do tamanho do AE pode ser utilizada como um marcador da presença de ICFEN, sendo um indicador da elevação crônica da pressão de enchimento do VE, cuja mensuração é de fácil obtenção. OBJETIVO: Estimar a acurácia da medida do tamanho do AE, utilizando os valores indexados do diâmetro e do volume do AE para o diagnóstico de ICFEN em pacientes ambulatoriais. MÉTODOS: Estudamos 142 pacientes (67,3 ± 11,4 anos, 75% de mulheres) com suspeita de IC, os quais foram divididos em dois grupos: com ICFEN (n = 35) e sem ICFEN (n = 107). RESULTADOS: A função diastólica, avaliada pelo ecodopplercardiograma, mostrou diferença significativa entre os dois grupos em relação aos parâmetros que avaliaram o relaxamento ventricular (E' 6,9 ± 2,0 cm/s vs. 9,3 ± 2,5 cm/s - p < 0,0001) e a pressão de enchimento do VE (relação E/E' 15,2 ± 6,4 vs. 7,6 ± 2,2 - p < 0,0001). O ponto de coorte do volume do AE indexado (VAE-I) de 35 mL/m² foi o que melhor se correlacionou com o diagnóstico de ICFEN, demonstrando sensibilidade de 83%, especificidade de 83% e acurácia de 83%. Já o ponto de coorte do diâmetro ântero-posterior do AE indexado (DAE-I) de 2,4 cm/m² apresentava sensibilidade de 71%, especificidade de 66% e acurácia de 67%. CONCLUSÃO: Para o diagnóstico de ICFEN em pacientes ambulatoriais, o VAE-I é o método mais acurado em comparação ao DAE-I. Na avaliação ecocardiográfica, a medida do tamanho do AE deveria ser substituída pela medida indexada do volume. (Arq Bras Cardiol. 2011; [online].ahead print, PP.0-0)
Resumo:
FUNDAMENTO: A extensão da doença arterial coronariana aterosclerótica em pacientes com angina estável tem importantes implicações prognósticas e terapêuticas. Em modelos atuais de evolução de placas, os trombócitos desempenham um papel importante no crescimento de placas. O volume plaquetário médio é um marcador facilmente determinado, com evidência de correlação com a agregabilidade plaquetária in vitro, além de valores comprovadamente maiores após eventos vasculares agudos. OBJETIVO: No presente estudo, investigou-se a relação entre o volume plaquetário médio e a extensão angiográfica da doença arterial coronariana em pacientes com angina estável. MÉTODOS: Foram analisados prontuários, hemograma completo e dados angiográficos anteriores de 267 pacientes elegíveis com angina estável. A extensão angiográfica da doença arterial coronariana foi avaliada à luz de dados angiográficos, com o uso por um especialista do escore de Gensini em uma cardiologia invasiva. Os valores para o volume plaquetário médio foram obtidos a partir de hemogramas completos, obtidos um dia antes da angiografia. Com relação ao intervalo populacional para o volume plaquetário médio, os pacientes foram agrupados dentro (n = 176) e abaixo (n = 62) do referido intervalo. Foi realizada uma comparação entre grupos e uma análise correlacional. RESULTADOS: Não houve correlação linear entre o escore de Gensini total e o volume plaquetário médio (p = 0,29), ao passo que a contagem total de trombócitos apresentou correlação inversa com o volume plaquetário médio (p < 0,001, r = 0,41). Os pacientes com volume plaquetário médio abaixo do normal apresentaram um escore de Gensini (36,73 ± 32,5 vs. 45,63 ± 32,63; p = 0,023) e doença coronariana triarterial (18% VS. 36%; p = 0,007) significativamente inferiores se comparados com aqueles apresentando valores de volume plaquetário médio dentro dos intervalos populacionais. CONCLUSÃO: Nossas constatações não demonstraram nenhuma relação linear entre o volume plaquetário médio e a extensão da doença arterial coronariana, ao passo que os pacientes com volume plaquetário médio abaixo do normal apresentaram uma extensão reduzida da doença arterial coronariana.
Resumo:
FUNDAMENTO: O teste ergométrico (TE), inicialmente indicado para diagnóstico e estratificação de risco da doença arterial coronariana (DAC), apresenta baixa sensibilidade, o que pode implicar em falha na detecção de pacientes com risco aumentado de eventos adversos. OBJETIVO: Avaliar a ecocardiografia sob estresse físico (EEF) na predição de eventos cardíacos maiores (ECM) e óbitos por todas as causas em pacientes com probabilidade pré-teste intermediária de DAC e TE normal. MÉTODO: Trata-se de estudo retrospectivo em que foram estudados 397 pacientes, com probabilidade pré-teste intermediária de DAC pelo método de Morise e TE normal, submetidos à EEF. Dividiu-se em dois grupos: EEF negativo (G1) ou positivo (G2) para isquemia miocárdica. Os desfechos avaliados foram mortalidade por qualquer causa e ECM, definidos como óbito cardíaco e infarto agudo do miocárdio (IAM) não fatal. RESULTADOS: O grupo G1 constituiu-se de 329 (82,8%) pacientes. A idade média foi de 57,37 ± 11 anos e 44,1% eram do gênero masculino. Durante o seguimento médio de 75,94 ± 17,24 meses, ocorreram 13 óbitos, dentre eles três por causas cardíacas (IAM), além de 13 IAM não fatais. Isquemia miocárdica permaneceu como preditor independente de ECM (RR 2,49; [IC] 95% 1,74-3,58). As variáveis preditoras de mortalidade por qualquer causa foram gênero masculino (RR 9,83; [IC] 95% 2,15-44,97) e idade > 60 anos (RR 4,57; [IC] 95% 1,39-15,23). CONCLUSÃO: A EEF positiva é preditora de ECM na amostra estudada, o que auxilia na identificação de um subgrupo de pacientes sob maior risco de eventos adversos, apesar de apresentarem TE normal.
Restrição materna de polifenóis e dinâmica ductal fetal na gestação normal: um ensaio clínico aberto
Resumo:
FUNDAMENTOS: Recentemente demonstramos reversão da constrição ductal fetal após redução da ingesta materna de alimentos ricos em polifenóis (ARP), por sua ação inibidora da síntese das prostaglandinas. OBJETIVOS: Testar a hipótese de que fetos normais no 3º trimestre também melhoram a dinâmica ductal após restrição materna de polifenóis. MÉTODOS: Ensaio clínico aberto com 46 fetos com idade gestacional (IG) > 28 semanas submetidos a dois estudos Dopplerecocardiográficos com intervalo de duas semanas, sendo os examinadores cegados para os hábitos alimentares maternos. Um questionário de frequência alimentar validado para esse objetivo foi aplicado e uma dieta com alimentos pobres em polifenóis (< 30 mg/100 mg) foi orientada. Um grupo controle de 26 fetos no 3º trimestre foi submetido ao mesmo protocolo. Utilizou-se o teste-t para amostras independentes. RESULTADOS: A IG média foi 33 ± 2 semanas. A média do consumo materno diário de polifenóis (CMDP) foi 1277 mg, caindo para 126 mg após orientação (p = 0,0001). Ocorreu diminuição significativa nas Velocidades Ductais Sistólica (VSD) e Diastólica (VDD) e na relação dos diâmetros ventriculares (VD/VE), assim como aumento do índice de pulsatilidade (IP) [VSD = 1,2 ± 0,4 m/s (0,7-1,6) para 0,9 ± 0,3 m/s (0,6-1,3) (p = 0,018);VDD = 0,21 ± 0,09 m/s (0,15-0,32) para 0,18 ± 0,06 m/s (0,11-0,25) (p = 0,016); relação VD/VE = 1,3 ± 0,2 (0,9-1,4) para 1,1 ± 0,2 (0,8 - 1,3) (p = 0,004); IP do ducto = 2,2 ± 0,03 (2,0-2,7) para 2,4 ± 0,4 (2,2-2,9) (p = 0,04)]. A IG média dos controles foi de 32 ± 4 semanas, não ocorrendo diferenças significativas no CMDP, nas velocidades ductais, no IP do ducto e na relação VD/VE. CONCLUSÃO: A restrição da ingesta de alimentos ricos em polifenóis no 3º trimestre por duas semanas melhora a dinâmica do fluxo no ducto arterioso fetal e as dimensões do VD.
Caso 5: homem, 73 anos, com insuficiência cardíaca com função sistólica normal e insuficiência renal
Resumo:
FUNDAMENTO: A estimulação de ventrículo direito pode ser deletéria em pacientes com disfunção ventricular, porém, em pacientes com função normal, o impacto desta estimulação desencadeando disfunção ventricular clinicamente relevante não é completamente estabelecido. OBJETIVOS: Avaliar a evolução clínica, ecocardiográfica e laboratorial de pacientes, com função ventricular esquerdapreviamente normal, submetidos a implante de marca-passo. MÉTODO: Estudo observacional transversal em que foram acompanhados de forma prospectiva 20 pacientes submetidos a implante de marca-passo com os seguintes critérios de inclusão: função ventricular esquerda normal definida pelo ecocardiograma e estimulação ventricular superior a 90%. Foram avaliados: classe funcional (CF) (New York Heart Association), teste de caminhada de 6 minutos (TC6), dosagem do hormônio natriurético tipo B (BNP), avaliação ecocardiográfica (convencional e parâmetros de dessincronismo) e questionário de qualidade de vida (QV) (SF-36). A avaliação foi feita com dez dias (t1), quatro meses (t2), oito meses (t3), 12 meses (t4) e 24 meses (t5). RESULTADOS: Os parâmetros ecocardiográficos convencionais e de dessincronismo não apresentaram variação estatística significante ao longo do tempo. O TC6, a CF e a dosagem de BNP apresentaram piora ao final dos dois anos. A QV teve melhora inicial e piora ao final dos dois anos. CONCLUSÃO: O implante de marca-passo convencional foi associado à piora da classe funcional, piora do teste de caminhada, aumento da dosagem de BNP, aumento da duração do QRS e piora em alguns domínios da QV ao final de dois anos. Não houve alterações nas medidas ecocardiográficas (convencionais e medidas de assincronia).
Resumo:
Navier-Stokes-Gleichungen, Gleitrandbedingung, Konvektions-Diffusions-Gleichung, Finite-Elemente-Methode, Mehrgitterverfahren, Fehlerabschätzung, Iterative Entkopplung
Resumo:
A insuficiência cardíaca com fração de ejeção normal (ICFEN) é, atualmente, o fenótipo clínico mais prevalente de insuficiência cardíaca e os tratamentos disponíveis não apresentam redução na mortalidade. Avanços na disciplina de ciências ômicas e em técnicas de elevado processamento de dados empregados na biologia molecular possibilitaram o desenvolvimento de uma abordagem integrativa da ICFEN baseada na biologia de sistemas. O objetivo deste trabalho foi apresentar um modelo da ICFEN baseado na biologia de sistemas utilizando as abordagens bottom-up e top-down. Realizou-se uma pesquisa na literatura de estudos publicados entre 1991-2013 referentes à fisiopatologia da ICFEN, seus biomarcadores e sobre a biologia de sistemas com o desenvolvimento de um modelo conceitual utilizando as abordagens bottom-up e top-down da biologia de sistemas. O emprego da abordagem de biologia de sistemas para ICFEN, a qual é uma síndrome clínica complexa, pode ser útil para melhor entender sua fisiopatologia e descobrir novos alvos terapêuticos.
Resumo:
Limestone, calcination, normal shaft kiln, process simulation, temperature profiles
Resumo:
Background:Vascular remodeling, the dynamic dimensional change in face of stress, can assume different directions as well as magnitudes in atherosclerotic disease. Classical measurements rely on reference to segments at a distance, risking inappropriate comparison between dislike vessel portions.Objective:to explore a new method for quantifying vessel remodeling, based on the comparison between a given target segment and its inferred normal dimensions.Methods:Geometric parameters and plaque composition were determined in 67 patients using three-vessel intravascular ultrasound with virtual histology (IVUS-VH). Coronary vessel remodeling at cross-section (n = 27.639) and lesion (n = 618) levels was assessed using classical metrics and a novel analytic algorithm based on the fractional vessel remodeling index (FVRI), which quantifies the total change in arterial wall dimensions related to the estimated normal dimension of the vessel. A prediction model was built to estimate the normal dimension of the vessel for calculation of FVRI.Results:According to the new algorithm, “Ectatic” remodeling pattern was least common, “Complete compensatory” remodeling was present in approximately half of the instances, and “Negative” and “Incomplete compensatory” remodeling types were detected in the remaining. Compared to a traditional diagnostic scheme, FVRI-based classification seemed to better discriminate plaque composition by IVUS-VH.Conclusion:Quantitative assessment of coronary remodeling using target segment dimensions offers a promising approach to evaluate the vessel response to plaque growth/regression.
Resumo:
Abstract Background: More than 50% of the patients with heart failure have normal ejection fraction (HFNEF). Iodine-123 metaiodobenzylguanidine (123I-MIBG) scintigraphy and cardiopulmonary exercise test (CPET) are prognostic markers in HFNEF. Nebivolol is a beta-blocker with vasodilating properties. Objectives: To evaluate the impact of nebivolol therapy on CPET and123I-MIBG scintigraphic parameters in patients with HFNEF. Methods: Twenty-five patients underwent 123I-MIBG scintigraphy to determine the washout rate and early and late heart-to-mediastinum ratios. During the CPET, we analyzed the systolic blood pressure (SBP) response, heart rate (HR) during effort and recovery (HRR), and oxygen uptake (VO2). After the initial evaluation, we divided our cohort into control and intervention groups. We then started nebivolol and repeated the tests after 3 months. Results: After treatment, the intervention group showed improvement in rest SBP (149 mmHg [143.5-171 mmHg] versus 135 mmHg [125-151 mmHg, p = 0.016]), rest HR (78 bpm [65.5-84 bpm] versus 64.5 bpm [57.5-75.5 bpm, p = 0.028]), peak SBP (235 mmHg [216.5-249 mmHg] versus 198 mmHg [191-220.5 mmHg], p = 0.001), peak HR (124.5 bpm [115-142 bpm] versus 115 bpm [103.7-124 bpm], p= 0.043), HRR on the 1st minute (6.5 bpm [4.75-12.75 bpm] versus 14.5 bpm [6.7-22 bpm], p = 0.025) and HRR on the 2nd minute (15.5 bpm [13-21.75 bpm] versus 23.5 bpm [16-31.7 bpm], p = 0.005), but no change in peak VO2 and 123I-MIBG scintigraphic parameters. Conclusion: Despite a better control in SBP, HR during rest and exercise, and improvement in HRR, nebivolol failed to show a positive effect on peak VO2 and 123I-MIBG scintigraphic parameters. The lack of effect on adrenergic activity may be the cause of the lack of effect on functional capacity.
Resumo:
The main object of the present paper consists in giving formulas and methods which enable us to determine the minimum number of repetitions or of individuals necessary to garantee some extent the success of an experiment. The theoretical basis of all processes consists essentially in the following. Knowing the frequency of the desired p and of the non desired ovents q we may calculate the frequency of all possi- ble combinations, to be expected in n repetitions, by expanding the binomium (p-+q)n. Determining which of these combinations we want to avoid we calculate their total frequency, selecting the value of the exponent n of the binomium in such a way that this total frequency is equal or smaller than the accepted limit of precision n/pª{ 1/n1 (q/p)n + 1/(n-1)| (q/p)n-1 + 1/ 2!(n-2)| (q/p)n-2 + 1/3(n-3) (q/p)n-3... < Plim - -(1b) There does not exist an absolute limit of precision since its value depends not only upon psychological factors in our judgement, but is at the same sime a function of the number of repetitions For this reasen y have proposed (1,56) two relative values, one equal to 1-5n as the lowest value of probability and the other equal to 1-10n as the highest value of improbability, leaving between them what may be called the "region of doubt However these formulas cannot be applied in our case since this number n is just the unknown quantity. Thus we have to use, instead of the more exact values of these two formulas, the conventional limits of P.lim equal to 0,05 (Precision 5%), equal to 0,01 (Precision 1%, and to 0,001 (Precision P, 1%). The binominal formula as explained above (cf. formula 1, pg. 85), however is of rather limited applicability owing to the excessive calculus necessary, and we have thus to procure approximations as substitutes. We may use, without loss of precision, the following approximations: a) The normal or Gaussean distribution when the expected frequency p has any value between 0,1 and 0,9, and when n is at least superior to ten. b) The Poisson distribution when the expected frequecy p is smaller than 0,1. Tables V to VII show for some special cases that these approximations are very satisfactory. The praticai solution of the following problems, stated in the introduction can now be given: A) What is the minimum number of repititions necessary in order to avoid that any one of a treatments, varieties etc. may be accidentally always the best, on the best and second best, or the first, second, and third best or finally one of the n beat treatments, varieties etc. Using the first term of the binomium, we have the following equation for n: n = log Riim / log (m:) = log Riim / log.m - log a --------------(5) B) What is the minimun number of individuals necessary in 01der that a ceratin type, expected with the frequency p, may appaer at least in one, two, three or a=m+1 individuals. 1) For p between 0,1 and 0,9 and using the Gaussean approximation we have: on - ó. p (1-p) n - a -1.m b= δ. 1-p /p e c = m/p } -------------------(7) n = b + b² + 4 c/ 2 n´ = 1/p n cor = n + n' ---------- (8) We have to use the correction n' when p has a value between 0,25 and 0,75. The greek letters delta represents in the present esse the unilateral limits of the Gaussean distribution for the three conventional limits of precision : 1,64; 2,33; and 3,09 respectively. h we are only interested in having at least one individual, and m becomes equal to zero, the formula reduces to : c= m/p o para a = 1 a = { b + b²}² = b² = δ2 1- p /p }-----------------(9) n = 1/p n (cor) = n + n´ 2) If p is smaller than 0,1 we may use table 1 in order to find the mean m of a Poisson distribution and determine. n = m: p C) Which is the minimun number of individuals necessary for distinguishing two frequencies p1 and p2? 1) When pl and p2 are values between 0,1 and 0,9 we have: n = { δ p1 ( 1-pi) + p2) / p2 (1 - p2) n= 1/p1-p2 }------------ (13) n (cor) We have again to use the unilateral limits of the Gaussean distribution. The correction n' should be used if at least one of the valors pl or p2 has a value between 0,25 and 0,75. A more complicated formula may be used in cases where whe want to increase the precision : n (p1 - p2) δ { p1 (1- p2 ) / n= m δ = δ p1 ( 1 - p1) + p2 ( 1 - p2) c= m / p1 - p2 n = { b2 + 4 4 c }2 }--------- (14) n = 1/ p1 - p2 2) When both pl and p2 are smaller than 0,1 we determine the quocient (pl-r-p2) and procure the corresponding number m2 of a Poisson distribution in table 2. The value n is found by the equation : n = mg /p2 ------------- (15) D) What is the minimun number necessary for distinguishing three or more frequencies, p2 p1 p3. If the frequecies pl p2 p3 are values between 0,1 e 0,9 we have to solve the individual equations and sue the higest value of n thus determined : n 1.2 = {δ p1 (1 - p1) / p1 - p2 }² = Fiim n 1.2 = { δ p1 ( 1 - p1) + p1 ( 1 - p1) }² } -- (16) Delta represents now the bilateral limits of the : Gaussean distrioution : 1,96-2,58-3,29. 2) No table was prepared for the relatively rare cases of a comparison of threes or more frequencies below 0,1 and in such cases extremely high numbers would be required. E) A process is given which serves to solve two problemr of informatory nature : a) if a special type appears in n individuals with a frequency p(obs), what may be the corresponding ideal value of p(esp), or; b) if we study samples of n in diviuals and expect a certain type with a frequency p(esp) what may be the extreme limits of p(obs) in individual farmlies ? I.) If we are dealing with values between 0,1 and 0,9 we may use table 3. To solve the first question we select the respective horizontal line for p(obs) and determine which column corresponds to our value of n and find the respective value of p(esp) by interpolating between columns. In order to solve the second problem we start with the respective column for p(esp) and find the horizontal line for the given value of n either diretly or by approximation and by interpolation. 2) For frequencies smaller than 0,1 we have to use table 4 and transform the fractions p(esp) and p(obs) in numbers of Poisson series by multiplication with n. Tn order to solve the first broblem, we verify in which line the lower Poisson limit is equal to m(obs) and transform the corresponding value of m into frequecy p(esp) by dividing through n. The observed frequency may thus be a chance deviate of any value between 0,0... and the values given by dividing the value of m in the table by n. In the second case we transform first the expectation p(esp) into a value of m and procure in the horizontal line, corresponding to m(esp) the extreme values om m which than must be transformed, by dividing through n into values of p(obs). F) Partial and progressive tests may be recomended in all cases where there is lack of material or where the loss of time is less importent than the cost of large scale experiments since in many cases the minimun number necessary to garantee the results within the limits of precision is rather large. One should not forget that the minimun number really represents at the same time a maximun number, necessary only if one takes into consideration essentially the disfavorable variations, but smaller numbers may frequently already satisfactory results. For instance, by definition, we know that a frequecy of p means that we expect one individual in every total o(f1-p). If there were no chance variations, this number (1- p) will be suficient. and if there were favorable variations a smaller number still may yield one individual of the desired type. r.nus trusting to luck, one may start the experiment with numbers, smaller than the minimun calculated according to the formulas given above, and increase the total untill the desired result is obtained and this may well b ebefore the "minimum number" is reached. Some concrete examples of this partial or progressive procedure are given from our genetical experiments with maize.