987 resultados para Pb(2)CrO(5)


Relevância:

100.00% 100.00%

Publicador:

Resumo:

FUNDAMENTO: O Infarto Agudo do Miocárdio (IAM) é a principal causa isolada de óbito entre as doenças crônicas não transmissíveis no Brasil. O conhecimento das tendências de mortalidade é necessário para o planejamento de estratégias de prevenção. OBJETIVO: Avaliar a tendência de mortalidade por infarto do miocárdio no período de 1998 a 2009 na cidade de Curitiba (PR), sua distribuição por gênero, faixa etária e seu impacto na redução do número absoluto de mortes por essa doença nesse período. MÉTODOS: Dados demográficos foram obtidos do Instituto Brasileiro de Geografia e Estatística e dados de óbitos foram obtidos no Sistema de Informação de Mortalidade do Ministério da Saúde, considerando gênero, faixa etária e residência. A partir do ajuste de um modelo de Regressão de Poisson foram estimadas taxas de mortalidade e número de mortes esperadas que não foram observadas. RESULTADOS: Foi encontrada tendência de declínio significativa (p < 0,001) no período. A estimativa da redução média na taxa de óbito por IAM a cada ano foi de 3,8% (IC 95%: 3,2% - 4,5%). Não houve diferença significativa entre os gêneros (p = 0,238); entretanto, a evolução das taxas padronizadas específicas por idade diferiu significativamente entre as faixas etárias (p = 0,018). Estima-se que a redução anual de 3,8% na taxa de mortalidade tenha resultado em 2.168 mortes aquém do número esperado, considerando a taxa de mortalidade observada em 1998 e projetando esse número sobre o crescimento populacional ocorrido no período estudado. CONCLUSÃO: Embora permaneça como causa importante de óbito, a mortalidade por IAM apresentou queda significativa no período avaliado

Relevância:

100.00% 100.00%

Publicador:

Resumo:

FUNDAMENTO: Eventos hemorrágicos em Síndromes Coronarianas Agudas (SCA) apresentam associação independente com óbito em registros multicêntricos internacionais. No entanto, essa associação não foi testada em nosso meio e a verdadeira relação causal entre sangramento e óbito não está plenamente demonstrada. OBJETIVO: Testar as hipóteses de que: (1) sangramento maior é preditor independente de óbito hospitalar em SCA; (2) a relação entre esses dois desfechos é causal. MÉTODOS: Incluídos pacientes com critérios pré-definidos de angina instável, infarto sem supradesnivelamento do ST ou infarto com supradesnivelamento do ST. Sangramento maior durante o internamento foi definido de acordo com os tipos 3 ou 5 da Classificação Universal de Sangramento. Regressão logística e análise da sequência de eventos foram utilizadas para avaliar a associação entre sangramento e óbito. RESULTADOS: Dentre 455 pacientes estudados, 29 desenvolveram sangramento maior (6,4%; 95%IC = 4,3-9,0%). Esses indivíduos apresentaram mortalidade hospitalar de 21%, comparados a 5,6% nos pacientes sem sangramento (RR = 4,0; 95%IC = 1,8-9,1; P = 0,001). Após ajuste para escore de propensão, sangramento maior permaneceu preditor de óbito hospitalar (OR = 3,34; 95%IC = 1,2-9,5; P = 0,02). Houve 6 óbitos dentre 29 pacientes que sangraram. No entanto, análise detalhada da sequência de eventos demonstrou relação causal em apenas um caso. CONCLUSÃO: (1) Sangramento maior é preditor independente de óbito hospitalar em SCA; (2) O papel do sangramento como marcador de risco predomina sobre seu papel de fator de risco para óbito. Essa conclusão deve ser vista como geradora de hipótese a ser confirmada por estudos de maior tamanho amostral. (Arq Bras Cardiol. 2012; [online].ahead print, PP.0-0)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

v.2=no.5-8 (1893) [Lacks pp.129]

Relevância:

100.00% 100.00%

Publicador:

Resumo:

FUNDAMENTO: Estados congestivos podem ser identificados e manejados através de algoritmos como o Diuretic Treatment Algorithm (DTA) para ajuste de diurético por telefone, com enfoque na avaliação clínica. Porém, o DTA está disponível somente em língua inglesa. OBJETIVO: Adaptar o DTA e testar sua aplicabilidade para uso no Brasil em pacientes ambulatoriais com IC. MÉTODOS: Seguiram-se as etapas de tradução, síntese, retrotradução, avaliação por comitê de especialistas e pré-teste (aplicabilidade clínica por meio de ensaio clínico randomizado). O DTA foi denominado, na versão para o Brasil, algoritmo de ajuste de diurético (AAD). Os pacientes foram randomizados para grupo intervenção (GI) - ajuste de diurético conforme o AAD - ou grupo controle (GC) - ajuste convencional. Foi avaliado o escore clínico de congestão (ECC) e o peso para ambos os grupos. RESULTADOS: Foram realizadas 12 modificações no DTA. Incluíram-se 34 pacientes. Para aqueles congestos, o aumento de diurético guiado pelo AAD resultou em maior resolução da congestão, com redução de dois pontos no ECC para 50% da amostra -2 (-3,5; -1,0), enquanto a mediana para o GC foi 0 (-1,25; -1,0), (p < 0,001). A mediana de variação de peso foi maior no GI -1,4 (-1,7; -0,5) quando comparado ao GC 0,1 (1,2; -0,6), p = 0,001. CONCLUSÕES: O ADD mostrou-se aplicável na prática clínica após adaptação e parece resultar em melhor controle da congestão em pacientes com IC. A efetividade clínica da ferramenta merece ser testada em amostra maior de pacientes visando sua validação para uso no Brasil (Universal Trial Number: U1111-1130-5749) (Arq Bras Cardiol. 2013; [online]. ahead print, PP.0-0).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

FUNDAMENTO: A regurgitação mitral é a doença valvar cardíaca mais comum em todo o mundo. A ressonância magnética pode ser uma ferramenta útil para analisar os parâmetros da valva mitral. OBJETIVO: diferenciar padrões geométricos da valva mitral em pacientes com diferentes gravidades por regurgitação mitral (RM) com base na ressonância magnética cardiovascular. MÉTODOS: Sessenta e três pacientes foram submetidos à ressonância magnética cardiovascular. Os parâmetros da valva mitral analisados foram: área (mm2) e ângulo (graus) de tenting, altura do ventrículo (mm), altura do tenting (mm), folheto anterior, comprimento posterior do folheto (leaflet) e diâmetro do anulo (mm). Os pacientes foram divididos em dois grupos, um incluindo pacientes que necessitaram de cirurgia da valva mitral e o outro os que não. RESULTADOS: Trinta e seis pacientes apresentaram de RM discreta a leve (1-2+) e 27 RM de moderada a grave (3-4+). Dez (15,9%) dos 63 pacientes foram submetidos à cirurgia. Pacientes com RM mais grave tiveram maior diâmetro sistólico final do ventrículo esquerdo (38,6 ± 10,2 vs. 45,4 ± 16,8, p < 0,05) e diâmetro diastólico final esquerdo (52,9 ± 6,8 vs. 60,1 ± 12,3, p = 0,005). Na análise multivariada, a área de tenting foi a determinante mais forte de gravidade de RM (r = 0,62, p = 0,035). Comprimento do anulo (36,1 ± 4,7 vs. 41 ± 6,7, p< 0,001), área de tenting (190,7 ± 149,7 vs. 130 ± 71,3, p= 0,048) e comprimento do folheto posterior (15,1 ± 4,1 vs. 12,2 ± 3,5, p= 0,023) foram maiores em pacientes que precisaram de cirurgia da valva mitral. CONCLUSÕES: Área de tenting, anulo e comprimento do folheto posterior são possíveis determinantes da gravidade da RM. Estes parâmetros geométricos podem ser usados para individualizar a gravidade e, provavelmente, no futuro, orientar o tratamento do paciente com base na anatomia individual do aparelho mitral.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fundamento: O papel dos polimorfismos genéticos da enzima de conversão da angiotensina na insuficiência cardíaca, como preditor de desfechos ecocardiográficos, ainda não está estabelecido. é necessário identificar o perfil local para observar o impacto desses genótipos na população brasileira, sendo inédito o estudo da insuficiência cardíaca de etiologia exclusivamente não isquêmica em seguimento mais longo que 5 anos. Objetivo: Determinar a distribuição das variantes do polimorfismo genético da enzima de conversão da angiotensina e sua relação com a evolução ecocardiográfica de pacientes com insuficiência cardíaca de etiologia não isquêmica. Métodos: Análise secundária de prontuários de 111 pacientes e identificação das variantes do polimorfismo genético da enzima de conversão da angiotensina, classificadas como DD (Deleção/Deleção), DI (Deleção/Inserção) ou II (Inserção/Inserção). Resultados: As médias da coorte foram: seguimento de 64,9 meses, idade de 59,5 anos, 60,4% eram homens, 51,4% eram brancos, 98,2% faziam uso de betabloqueadores e 89,2% de inibidores da enzima de conversão da angiotensina ou de bloqueador do receptor da angiotensina. A distribuição do polimorfismo genético da enzima de conversão da angiotensina foi: 51,4% de DD; 44,1% de DI; e 4,5% de II. Não se observou nenhuma diferença das características clínicas ou de tratamento entre os grupos. O diâmetro sistólico do ventrículo esquerdo final foi a única variável ecocardiográfica isolada significativamente diferente entre os polimorfismos genéticos da enzima de conversão da angiotensina: 59,2 ± 1,8 para DD versus 52,3 ± 1,9 para DI versus 59,2 ± 5,2 para II (p = 0,029). No seguimento ecocardiográfico, todas as variáveis (diferença entre a fração de ejeção do ventrículo esquerdo da última e da primeira consulta; diferença entre o diâmetro sistólico do ventrículo esquerdo da última e da primeira consulta; e diferença entre o diâmetro diastólico do ventrículo esquerdo da última e da primeira consulta) diferiram entre os genótipos (p = 0,024; p = 0,002; e p = 0,021, respectivamente). Conclusão: A distribuição dos polimorfismos genéticos da enzima de conversão da angiotensina foi diferente de outros estudos com baixíssimo número de II. O genótipo DD foi associado de forma independente à pior evolução ecocardiográfica e DI ao melhor perfil ecocardiográfico (aumento da fração de ejeção do ventrículo esquerdo e diminuição de diâmetros do ventrículo esquerdo).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fundamento: O tratamento da insuficiência cardíaca evoluiu nas últimas décadas, sugerindo que sua sobrevida tem aumentado. Objetivo: Verificar se houve melhora na sobrevida dos pacientes com insuficiência cardíaca avançada. Métodos: Comparamos retrospectivamente os dados de seguimento e tratamento de duas coortes de pacientes com insuficiência cardíaca sistólica admitidos para compensação até o ano 2000 (n = 353) e após 2000 (n = 279). Foram analisados: morte hospitalar, re-hospitalizações e morte no seguimento de 1 ano. Utilizamos os testes U de Mann-Whitney e qui-quadrado para comparação entre os grupos. Os preditores de mortalidade foram identificados pela análise de regressão por meio do método dos riscos proporcionais de Cox e análise de sobrevida pelo método de Kaplan-Meier. Resultados: Os pacientes internados até o ano 2000 eram mais jovens, tinham menor comprometimento ventricular esquerdo e receberam menor proporção de betabloqueadores na alta. A sobrevida dos pacientes hospitalizados antes de 2000 foi menor do que a dos hospitalizados após 2000 (40,1% vs. 67,4%; p < 0,001). Os preditores independentes de mortalidade na análise de regressão foram: a etiologia chagásica (hazard ratio: 1,9; intervalo de confiança de 95%: 1,3-3,0), inibidores da enzima conversora da angiotensina (hazard ratio: 0,6; intervalo de confiança de 95%: 0,4-0,9), betabloqueador (hazard ratio: 0,3; intervalo de confiança de 95%: 0,2-0,5), creatinina ≥ 1,4 mg/dL (hazard ratio: 2,0; intervalo de confiança de 95%: 1,3-3,0), sódio sérico ≤ 135 mEq/L (hazard ratio: 1,8; intervalo de confiança de 95%: 1,2-2,7). Conclusões: Pacientes com insuficiência cardíaca avançada apresentaram melhora significativa na sobrevida e redução nas re-hospitalizações. O bloqueio neuro-hormonal, com inibidores da enzima conversora da angiotensina e betabloqueadores, teve papel importante no aumento da sobrevida desses pacientes com insuficiência cardíaca avançada.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

ეს არის ურარტულ სახელმძღვანელოში შესატანი ურარტული ტექსტები: 1.ურარტუს მეფე სარდურის წარწერის ლურსმული ტექსტი; 2.იშფუინის (სარდურის ვაჟის) წარწერის ლურსმული ტექსტი; 3-5. იშფუინი და მენუა (იშფუინის ვაჟი) ურარტული ლურსმული ტექსტი (კელიშინის სტელის წარწერიდან); 6-8. ურარტული ტექსტის ასურული ვერსია

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Background: The classification or index of heart failure severity in patients with acute myocardial infarction (AMI) was proposed by Killip and Kimball aiming at assessing the risk of in-hospital death and the potential benefit of specific management of care provided in Coronary Care Units (CCU) during the decade of 60. Objective: To validate the risk stratification of Killip classification in the long-term mortality and compare the prognostic value in patients with non-ST-segment elevation MI (NSTEMI) relative to patients with ST-segment elevation MI (STEMI), in the era of reperfusion and modern antithrombotic therapies. Methods: We evaluated 1906 patients with documented AMI and admitted to the CCU, from 1995 to 2011, with a mean follow-up of 05 years to assess total mortality. Kaplan-Meier (KM) curves were developed for comparison between survival distributions according to Killip class and NSTEMI versus STEMI. Cox proportional regression models were developed to determine the independent association between Killip class and mortality, with sensitivity analyses based on type of AMI. Results: The proportions of deaths and the KM survival distributions were significantly different across Killip class >1 (p <0.001) and with a similar pattern between patients with NSTEMI and STEMI. Cox models identified the Killip classification as a significant, sustained, consistent predictor and independent of relevant covariables (Wald χ2 16.5 [p = 0.001], NSTEMI) and (Wald χ2 11.9 [p = 0.008], STEMI). Conclusion: The Killip and Kimball classification performs relevant prognostic role in mortality at mean follow-up of 05 years post-AMI, with a similar pattern between NSTEMI and STEMI patients.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

AbstractBackground:Guidelines recommend that in suspected stable coronary artery disease (CAD), a clinical (non-invasive) evaluation should be performed before coronary angiography.Objective:We assessed the efficacy of patient selection for coronary angiography in suspected stable CAD.Methods:We prospectively selected consecutive patients without known CAD, referred to a high-volume tertiary center. Demographic characteristics, risk factors, symptoms and non-invasive test results were correlated to the presence of obstructive CAD. We estimated the CAD probability based on available clinical data and the incremental diagnostic value of previous non-invasive tests.Results:A total of 830 patients were included; median age was 61 years, 49.3% were males, 81% had hypertension and 35.5% were diabetics. Non-invasive tests were performed in 64.8% of the patients. At coronary angiography, 23.8% of the patients had obstructive CAD. The independent predictors for obstructive CAD were: male gender (odds ratio [OR], 3.95; confidence interval [CI] 95%, 2.70 - 5.77), age (OR for 5 years increment, 1.15; CI 95%, 1.06 - 1.26), diabetes (OR, 2.01; CI 95%, 1.40 - 2.90), dyslipidemia (OR, 2.02; CI 95%, 1.32 - 3.07), typical angina (OR, 2.92; CI 95%, 1.77 - 4.83) and previous non-invasive test (OR 1.54; CI 95% 1.05 - 2.27).Conclusions:In this study, less than a quarter of the patients referred for coronary angiography with suspected CAD had the diagnosis confirmed. A better clinical and non-invasive assessment is necessary, to improve the efficacy of patient selection for coronary angiography.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

v. 2 pt. 5 (1912)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abstract Background: BNP has been extensively evaluated to determine short- and intermediate-term prognosis in patients with acute coronary syndrome, but its role in long-term mortality is not known. Objective: To determine the very long-term prognostic role of B-type natriuretic peptide (BNP) for all-cause mortality in patients with non-ST segment elevation acute coronary syndrome (NSTEACS). Methods: A cohort of 224 consecutive patients with NSTEACS, prospectively seen in the Emergency Department, had BNP measured on arrival to establish prognosis, and underwent a median 9.34-year follow-up for all-cause mortality. Results: Unstable angina was diagnosed in 52.2%, and non-ST segment elevation myocardial infarction, in 47.8%. Median admission BNP was 81.9 pg/mL (IQ range = 22.2; 225) and mortality rate was correlated with increasing BNP quartiles: 14.3; 16.1; 48.2; and 73.2% (p < 0.0001). ROC curve disclosed 100 pg/mL as the best BNP cut-off value for mortality prediction (area under the curve = 0.789, 95% CI= 0.723-0.854), being a strong predictor of late mortality: BNP < 100 = 17.3% vs. BNP ≥ 100 = 65.0%, RR = 3.76 (95% CI = 2.49-5.63, p < 0.001). On logistic regression analysis, age >72 years (OR = 3.79, 95% CI = 1.62-8.86, p = 0.002), BNP ≥ 100 pg/mL (OR = 6.24, 95% CI = 2.95-13.23, p < 0.001) and estimated glomerular filtration rate (OR = 0.98, 95% CI = 0.97-0.99, p = 0.049) were independent late-mortality predictors. Conclusions: BNP measured at hospital admission in patients with NSTEACS is a strong, independent predictor of very long-term all-cause mortality. This study allows raising the hypothesis that BNP should be measured in all patients with NSTEACS at the index event for long-term risk stratification.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abstract Background: The kinetics of high-sensitivity troponin T (hscTnT) release should be studied in different situations, including functional tests with transient ischemic abnormalities. Objective: To evaluate the release of hscTnT by serial measurements after exercise testing (ET), and to correlate hscTnT elevations with abnormalities suggestive of ischemia. Methods: Patients with acute ST-segment elevation myocardial infarction (STEMI) undergoing primary angioplasty were referred for ET 3 months after infarction. Blood samples were collected to measure basal hscTnT immediately before (TnT0h), 2 (TnT2h), 5 (TnT5h), and 8 hours (TnT8h) after ET. The outcomes were peak hscTnT, TnT5h/TnT0h ratio, and the area under the blood concentration-time curve (AUC) for hscTnT levels. Log-transformation was performed on hscTnT values, and comparisons were assessed with the geometric mean ratio, along with their 95% confidence intervals. Statistical significance was assessed by analysis of covariance with no adjustment, and then, adjusted for TnT0h, age and sex, followed by additional variables (metabolic equivalents, maximum heart rate achieved, anterior wall STEMI, and creatinine clearance). Results: This study included 95 patients. The highest geometric means were observed at 5 hours (TnT5h). After adjustments, peak hscTnT, TnT5h/TnT0h and AUC were 59% (p = 0.002), 59% (p = 0.003) and 45% (p = 0.003) higher, respectively, in patients with an abnormal ET as compared to those with normal tests. Conclusion: Higher elevations of hscTnT may occur after an abnormal ET as compared to a normal ET in patients with STEMI.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

1) Chamamos um desvio relativo simples o quociente de um desvio, isto é, de uma diferença entre uma variável e sua média ou outro valor ideal, e o seu erro standard. D= v-v/ δ ou D = v-v2/δ Num desvio composto nós reunimos vários desvios de acordo com a equação: D = + Σ (v - 2)²: o o = o1/ o o Todo desvio relativo é caracterizado por dois graus de liberdade (número de variáveis livres) que indicam de quantas observações foi calculado o numerador (grau de liberdade nf1 ou simplesmente n2) e o denominador (grau de liberdade nf2 ou simplesmente n2). 2) Explicamos em detalhe que a chamada distribuição normal ou de OAUSS é apenas um caso especial que nós encontramos quando o erro standard do dividendo do desvio relativo é calculado de um número bem grande de observações ou determinado por uma fórmula teórica. Para provar este ponto foi demonstrado que a distribuição de GAUSS pode ser derivada da distribuição binomial quando o expoente desta torna-se igual a infinito (Fig.1). 3) Assim torna-se evidente que um estudo detalhado da variação do erro standard é necessário. Mostramos rapidamente que, depois de tentativas preliminares de LEXIS e HELMERT, a solução foi achada pelos estatísticos da escola londrina: KARL PEARSON, o autor anônimo conhecido pelo nome de STUDENT e finalmente R. A. FISHER. 4) Devemos hoje distinguir quatro tipos diferentes de dis- tribuições de acaso dos desvios relativos, em dependência de combinação dos graus de liberdade n1 e n2. Distribuição de: fisher 1 < nf1 < infinito 1 < nf2 < infinito ( formula 9-1) Pearson 1 < nf1 < infinito nf 2= infinito ( formula 3-2) Student nf2 = 1 1 < nf2= infinito ( formula 3-3) Gauss nf1 = 1 nf2= infinito ( formula 3-4) As formas das curvas (Fig. 2) e as fórmulas matemáticas dos quatro tipos de distribuição são amplamente discutidas, bem como os valores das suas constantes e de ordenadas especiais. 5) As distribuições de GAUSS e de STUDENT (Figs. 2 e 5) que correspondem a variação de desvios simples são sempre simétricas e atingem o seu máximo para a abcissa D = O, sendo o valor da ordenada correspondente igual ao valor da constante da distribuição, k1 e k2 respectivamente. 6) As distribuições de PEARSON e FISHER (Fig. 2) correspondentes à variação de desvios compostos, são descontínuas para o valor D = O, existindo sempre duas curvas isoladas, uma à direita e outra à esquerda do valor zero da abcissa. As curvas são assimétricas (Figs. 6 a 9), tornando-se mais e mais simétricas para os valores elevados dos graus de liberdade. 7) A natureza dos limites de probabilidade é discutida. Explicámos porque usam-se em geral os limites bilaterais para as distribuições de STUDENT e GAUSS e os limites unilaterais superiores para as distribuições de PEARSON e FISHER (Figs. 3 e 4). Para o cálculo dos limites deve-se então lembrar que o desvio simples, D = (v - v) : o tem o sinal positivo ou negativo, de modo que é em geral necessário determinar os limites bilaterais em ambos os lados da curva (GAUSS e STUDENT). Os desvios relativos compostos da forma D = O1 : o2 não têm sinal determinado, devendo desprezar-se os sinais. Em geral consideramos apenas o caso o1 ser maior do que o2 e os limites se determinam apenas na extremidade da curva que corresponde a valores maiores do que 1. (Limites unilaterais superiores das distribuições de PEARSON e FISHER). Quando a natureza dos dados indica a possibilidade de aparecerem tanto valores de o(maiores como menores do que o2,devemos usar os limites bilaterais, correspondendo os limites unilaterais de 5%, 1% e 0,1% de probabilidade, correspondendo a limites bilaterais de 10%, 2% e 0,2%. 8) As relações matemáticas das fórmulas das quatro distribuições são amplamente discutidas, como também a sua transformação de uma para outra quando fazemos as necessárias alterações nos graus de liberdade. Estas transformações provam matematicamente que todas as quatro distribuições de acaso formam um conjunto. Foi demonstrado matematicamente que a fórmula das distribuições de FISHER representa o caso geral de variação de acaso de um desvio relativo, se nós extendermos a sua definição desde nfl = 1 até infinito e desde nf2 = 1 até infinito. 9) Existe apenas uma distribuição de GAUSS; podemos calcular uma curva para cada combinação imaginável de graus de liberdade para as outras três distribuições. Porém, é matematicamente evidente que nos aproximamos a distribuições limitantes quando os valores dos graus de liberdade se aproximam ao valor infinito. Partindo de fórmulas com área unidade e usando o erro standard como unidade da abcissa, chegamos às seguintes transformações: a) A distribuição de STUDENT (Fig. 5) passa a distribuição de GAUSS quando o grau de liberdade n2 se aproxima ao valor infinito. Como aproximação ao infinito, suficiente na prática, podemos aceitar valores maiores do que n2 = 30. b) A distribuição de PEARSON (Fig. 6) passa para uma de GAUSS com média zero e erro standard unidade quando nl é igual a 1. Quando de outro lado, nl torna-se muito grande, a distribuição de PEARSON podia ser substituída por uma distribuição modificada de GAUSS, com média igual ale unidade da abcissa igual a 1 : V2 n 1 . Para fins práticos, valores de nl maiores do que 30 são em geral uma aproximação suficiente ao infinito. c) Os limites da distribuição de FISHER são um pouco mais difíceis para definir. I) Em primeiro lugar foram estudadas as distribuições com n1 = n2 = n e verificamos (Figs. 7 e 8) que aproximamo-nos a uma distribuição, transformada de GAUSS com média 1 e erro standard l : Vn, quando o valor cresce até o infinito. Como aproximação satisfatória podemos considerar nl = n2 = 100, ou já nl =r n2 - 50 (Fig. 8) II) Quando n1 e n2 diferem (Fig. 9) podemos distinguir dois casos: Se n1 é pequeno e n2 maior do que 100 podemos substituir a distribuição de FISHER pela distribuição correspondente de PEARSON. (Fig. 9, parte superior). Se porém n1é maior do que 50 e n2 maior do que 100, ou vice-versa, atingimos uma distribuição modificada de GAUSS com média 1 e erro standard 1: 2n1 n3 n1 + n2 10) As definições matemáticas e os limites de probabilidade para as diferentes distribuições de acaso são dadas em geral na literatura em formas bem diversas, usando-se diferentes sistemas de abcissas. Com referência às distribuições de FISHER, foi usado por este autor, inicialmente, o logarítmo natural do desvio relativo, como abcissa. SNEDECOR (1937) emprega o quadrado dos desvios relativos e BRIEGER (1937) o desvio relativo próprio. As distribuições de PEARSON são empregadas para o X2 teste de PEARSON e FISHER, usando como abcissa os valores de x² = D². n1 Foi exposto o meu ponto de vista, que estas desigualdades trazem desvantagens na aplicação dos testes, pois atribui-se um peso diferente aos números analisados em cada teste, que são somas de desvios quadrados no X2 teste, somas des desvios quadrados divididos pelo grau de liberdade ou varianças no F-teste de SNEDECOR, desvios simples no t-teste de STUDENT, etc.. Uma tábua dos limites de probabilidade de desvios relativos foi publicada por mim (BRIEGER 1937) e uma tábua mais extensa será publicada em breve, contendo os limites unilaterais e bilaterais, tanto para as distribuições de STUDENT como de FISHER. 11) Num capítulo final são discutidas várias complicações que podem surgir na análise. Entre elas quero apenas citar alguns problemas. a) Quando comparamos o desvio de um valor e sua média, deveríamos corretamente empregar também os erros de ambos estes valores: D = u- u o2 +²5 Mas não podemos aqui imediatamente aplicar os limites de qualquer das distribuições do acaso discutidas acima. Em geral a variação de v, medida por o , segue uma distribuição de STUDENT e a variação da média V segue uma distribuição de GAUSS. O problema a ser solucionado é, como reunir os limites destas distribuições num só teste. A solução prática do caso é de considerar a média como uma constante, e aplicar diretamente os limites de probabilidade das dstribuições de STUDENT com o grau de liberdade do erro o. Mas este é apenas uma solução prática. O problema mesmo é, em parte, solucionado pelo teste de BEHRENDS. b) Um outro problema se apresenta no curso dos métodos chamados "analysis of variance" ou decomposição do erro. Supomos que nós queremos comparar uma média parcial va com a média geral v . Mas podemos calcular o erro desta média parcial, por dois processos, ou partindo do erro individual aa ou do erro "dentro" oD que é, como explicado acima, uma média balançada de todos os m erros individuais. O emprego deste último garante um teste mais satisfatório e severo, pois êle é baseado sempre num grau de liberdade bastante elevado. Teremos que aplicar dois testes em seguida: Em primeiro lugar devemos decidir se o erro ou difere do êrro dentro: D = δa/δ0 n1 = np/n2 m. n p Se este teste for significante, uma substituição de oa pelo oD não será admissível. Mas mesmo quando o resultado for insignificante, ainda não temos certeza sobre a identidade dos dois erros, pois pode ser que a diferença entre eles é pequena e os graus de liberdade não são suficientes para permitir o reconhecimento desta diferença como significante. Podemos então substituirmos oa por oD de modo que n2 = m : np: D = V a - v / δa Np n = 1 n2 = np passa para D = v = - v/ δ Np n = 1 n2 = m.n p as como podemos incluir neste último teste uma apreciação das nossas dúvidas sobre o teste anterior oa: oD ? A melhor solução prática me parece fazer uso da determinação de oD, que é provavelmente mais exata do que oa, mas usar os graus de liberdade do teste simples: np = 1 / n2 = np para deixar margem para as nossas dúvidas sobre a igualdade de oa a oD. Estes dois exemplos devem ser suficientes para demonstrar que apesar dos grandes progressos que nós podíamos registrar na teoria da variação do acaso, ainda existem problemas importantes a serem solucionados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper describes the data obtained for the growth of sugar cane, Variety Co 419, and the amount and rate of absorption of nitrogen, phosphorus, potassium, calcium, magnesium, sulfur, and silicon, according to the age of the plant, in the soil and climate conditions of the state of S. Paulo, Brazil. An experiment was installed in the Estação Experimental de Cana de Açúcar "Dr. José Vizioli", at Piracicaba, state of S. Paulo, Brazil, and the soil "tèrra-roxa misturada" presented the following composition: Sand (more than 0,2 mm)........................................................................ 8.40 % Fine sand (from 0,2 to less than 0,02 mm)................................................. 24.90 % Silt (from 0,02 to less than 0,002 mm)...................................................... 16.40 % Clay (form 0,002 mm and less)................................................................ 50.20 % pH 10 g of soil and 25 ml of distilled water)..................................................... 5.20 %C (g of carbon per 100 g of soil)................................................................. 1.00 %N (g of nitrogen per 100 g of soil)............................................................... 0.15 P0(4)-³ (me. per 100 g of soil, soluble in 0,05 normal H2SO4) ............................... 0.06 K+ (exchangeable, me. per 100 g of soil)....... 0.18 Ca+² (exchangeable, me. per 100 g of soil)...... 2.00 Mg+² (exchangeable, me. per 100 g of soil)...... 0.66 The monthly rainfall and mean temperature from January 1956 to August 1957 are presented in Table 1, in Portuguese. The experiment consisted of 3 replications of the treatments: without fertilizer and with fertilizer (40 Kg of N, from ammonium sulfate; 100 Kg of P(2)0(5) from superphosphate and 40 Kg K2 O, from potassium chloride). Four complete stools (stalks and leaves) were harvested from each treatment, and the plants separated in stalks and leaves, weighed, dried and analysed every month from 6 up to 15 months of age. The data obtained for fresh and dry matter production are presented in table 2, and in figure land 2, in Portuguese. The curves for fresh and dry matter production showed that fertilized and no fertilized sugar cane with 6 months of age presents only 5% of its total weight at 15 months of age. The most intense period of growth in this experiment is located, between 8 and 12 months of age, that is between December 1956 and April 1957. The dry matter production of sugar cane with 8 and 12 months of age was, respectively, 12,5% and 87,5% of the total weight at 15 months of age. The growth of sugar cane in relation to its age follows a sigmoid curve, according to the figures 1, 2 and 3. The increase of dry matter production promoted by using fertilizer was 62,5% when sugar cane was 15 months of age. The concentration of the elements (tables 4 and 5 in Portuguese) present a general trend of decreasing as the cane grows older. In the stalks this is true for all elements studied in this experiment. But in the leaves, somme elements, like sulfur and silicon, appears to increase with the increasing of age. Others, like calcium and magnesium do not show large variations, and finally a third group, formed by nitrogen, phosphorus and potassium seems to decrease at the beginning and later presents a light increasing. The concentration of the elements was higher in the leaves than in the stalks from 6 up to 15 months of age. There were some exceptions. Potassium, magnesium and sulfur were higher in the stalks than in the leaves from 6 up to 8 or 9 months of age. After 9 months, the leaves presented more potassium, magnesium and sulfur than the stalks. The percentage of nitrogen in the leaves was lower in the plants that received fertilizer than in the plants without fertilizer with 6, 7, 8, 10, 11 and 13 months of age. This can be explained by "dilution effect". The uptake of elements by 4 stools (stalks and leaves) of sugar cane according to the plant age is showed in table 6, in Portuguese. The absorption of all studied elements, nitrogen, phosphorus, potassium, calcium, magnesium, sulfur and silicon, was higher in plants that received fertilizer. The trend of uptake of nitrogen and potassium is similar to the trend of production of dry matter, that is, the maximum absorption of those two nutrients occurs between 9 and 13 months of age. Finaly, the maxima amounts of elements absorbed by 4 stools (stalks and leaves) of sugar cane plants that received fertilizer are condensed in the following table: Element Maximum absorption in grams Age of the plants in months Nitrogen (N) 81.0 14 Phosphorus (P) 6.8 15 Potassium (K) 81.5 15 Calcium (Ca) 19.2 15 Magnesium (Mg) 13.9 13 Sulfur (S) 9.3 15 Silicon (Si) 61.8 15 It is very interesting to note the low absorption of phosphorus even with 100 kg of P2O5 per hectare, aplied as superphosphate. The uptake of phosphorus was lower than calcium, magnesium and sulfur. Also, it is noteworthy the large amount of silicon absorbed by sugar cane.