1000 resultados para Pronome relativo
Resumo:
FUNDAMENTO: Anemia está associada à pior evolução nos pacientes com insuficiência cardíaca (IC). Entretanto, há poucos estudos sobre a anemia nos pacientes com IC avançada. OBJETIVO: Avaliar as características da anemia na IC em fase avançada. MÉTODOS: Foram incluídos 99 pacientes hospitalizados para compensação de IC (CF IV/NYHA), com idade > 18 anos e FEVE < 45%. Foram considerados anêmicos os pacientes com hemoglobina (Hb) < 12 g/dl. Dados foram comparados entre anêmicos e não anêmicos. Empregaram-se os testes t de Student, Qui-quadrado e Fisher. O risco relativo (IC 95%) foi calculado pela regressão de Cox. RESULTADOS: O acompanhamento médio foi de 10,8 meses (8,9), e 34,3% dos pacientes com IC apresentaram anemia. Pacientes anêmicos, comparados com não anêmicos, apresentaram maior idade média (64,1±15,6 vs 54,8±12,9 anos, p = 0,004), creatinina mais elevada (1,9 ± 1 vs 1,5 + 0,5 mg/dl, p = 0,018) e BNP mais elevado (2.077,4 ± 1.979,4 vs 1.212,56 ± 1.080,6 pg/ml, p = 0,026). Anemia ferropriva esteve presente em 38,24 % dos anêmicos. Após melhora da congestão, apenas 25% dos pacientes que apresentavam anemia receberam alta com Hb > 12 g/dl. A anemia foi marcador independente de mau prognóstico na análise multivariada (mortalidade 47% vs 24,6%, p = 0,016, risco relativo 2,54). CONCLUSÃO: Anemia acomete, aproximadamente, 1/3 dos pacientes com IC avançada, e a deficiência de ferro é uma importante etiologia. Pacientes anêmicos são mais idosos e apresentaram função renal mais deteriorada. A melhora da congestão não foi suficiente para melhorar a anemia na maioria dos casos. Nos pacientes com IC avançada, a anemia é marcador independente de mau prognóstico.
Implementando diretrizes clínicas na atenção ao infarto agudo do miocárdio em uma emergência pública
Resumo:
FUNDAMENTO: A implementação de diretrizes clínicas na atenção ao infarto agudo do miocárdio (IAM) produz melhores resultados. OBJETIVO: Apresentar um programa multidisciplinar de implementação dessas diretrizes em uma grande emergência pública e verificar seu impacto. MÉTODOS: Estudo de avaliação de serviços de saúde, com desenho do tipo "antes e após", para avaliar os indicadores da qualidade da atenção ao IAM antes e após a implementação de estratégias de treinamento e de facilitação da adesão das equipes da emergência a diretrizes clínicas. Isso inclui a elaboração de material didático e de sensibilização e a supervisão continuada. Estimativa de risco relativo (RR) e intervalos de confiança (IC95%). RESULTADOS: Grupo pré-programa de diretrizes clínicas, 78 casos de IAM; grupo pós-programa, 66 casos de IAM. A maioria dos casos foi tratada apenas na emergência, por limitação de vagas na unidade coronariana. Observou-se aumento significativo (p<0,05) no uso de diversas intervenções avaliadas (indicadores de processo): betabloqueadores, 83%; inibidores da enzima conversora do angiotensinogênio, 22%; hipolipemiantes, 69%; nitrato intravenoso, 55%; reperfusão coronariana em IAM com supradesnivelamento de segmento ST, 98%. O uso de ácido acetilsalicílico desde o primeiro dia do IAM alcançou 95,5% dos casos. A perda de oportunidade de reperfusão coronariana, nos casos com essa indicação, reduziu de 71,4% para 17,6% pós-treinamento. CONCLUSÃO: O programa obteve um impacto expressivo e a sua multiplicação para outras unidades pode contribuir para melhorar a assistência ao IAM no SUS.
Resumo:
Não existe consenso sobre a estratégia nutricional mais adequada para tratar a Síndrome Metabólica (SM), de tal forma que ocorra redução do risco cardiovascular. O presente estudo foi desenhado para avaliar a força de evidência dos benefícios de diferentes intervenções nutricionais na remissão da SM. A busca virtual foi realizada nas bases de dados Medline, Cochrane Library e PubMed, de ensaios clínicos randomizados publicados no período entre 1999 a 2009, em qualquer língua, em indivíduos com 18 anos ou mais e diagnóstico de SM, independente do critério. O operador booleano and foi utilizado na combinação dos MeSH terms "Metabolic Syndrome", "Síndrome x Metabólica" e "Metabolic Syndrome X"; dos entry terms "Dysmetabolic Syndrome X", Metabolic Cardiovascular Syndrome", "Metabolic X Syndrome", "Syndrome X, Metabolic" adicionados dos termos "diet", "intervention and diet", "treatment and diet" e "supplementation". Para cada estudo incluído na revisão foi estimada a Prevalência de SM e o Cálculo da Eficácia após o período de seguimento. Medidas de risco relativo para cada estudo foram descritas pelo Forest Plot. Foram identificados 131 artigos, os quais após critérios de elegibilidade resultaram em 15 estudos. Estes foram separados em quatro grupos: dieta normocalórica associada a exercícios; dieta normocalórica isolada; dieta hipocalórica associada a exercícios; e dieta hipocalórica isolada. Os ensaios com dieta hipocalórica associada à prática de exercícios apresentaram valores mais elevados de eficácia, colaborando para ressaltar os aspectos globais da mudança do estilo de vida no tratamento da SM, onde a alimentação saudável e reduzida em calorias deve ser complementada com a prática de atividade física.
Resumo:
FUNDAMENTO: Os gastos com cirurgia de revascularização do miocárdio (RVM) e angioplastia coronariana (AC), representaram importante ônus para o SUS. OBJETIVO: Analisar gastos do SUS com RVM e AC e sua performance nos hospitais do Estado do Rio de Janeiro (ERJ), de 1999 a 2008. MÉTODOS: As informações provieram das AIH pagas dos hospitais com mais de 100 revascularizações. As taxas de letalidade foram ajustadas por modelos Poisson (covariáveis idade, dias de permanência no hospital e gasto em UTI). Foram construídos índices de gasto médio relativo, dividindo-se o valor médio da fração de gasto em cada hospital pelo gasto médio no ERJ, em dólares. Para análise estatística empregou-se o Stata. RESULTADOS: Foram pagas 10.983 RVM e 19.661 AC em 20 hospitais nos 10 anos, com valores médios de US$ 3.088,12 e 2.183,93, respectivamente. A taxa de letalidade nas RVM flutuou de 9,2%-1999 para 7,7%-2008, com valores extremos de 5,0%-9,2% e nas AC de 1,6%-1999 para 1,5%-2008, com valores extremos de 0,9%-2,3%. Os hospitais diminuíram a realização de RVM e duplicaram a de AC. Idade, tempo de internação e gastos em UTI correlacionaram-se significativamente com a letalidade nas RVM e AC pagas no ERJ. Em média, os gastos com os serviços hospitalares representaram 41% do total das RVM e 18% das AC, e os com as órteses e próteses, 55% das AC e 28% nas RVM. CONCLUSÃO: Evidencia-se necessidade de melhorar a qualidade do atendimento das instituições que realizam RVM e AC pagas pelo SUS.
Resumo:
FUNDAMENTO: O valor prognóstico do PNB na Síndrome Coronariana Aguda (SCA) tem sido repetidamente avaliado, mas ainda não completamente bem estabelecido. Os dados da literatura para estabelecer o melhor momento para avaliar o PNB, seja na admissão hospitalar, seja após a intervenção coronariana, são controversos. OBJETIVO: Analisar o PNB em SCA sem supradesnivelamento do segmento ST (Scasest), no longo prazo, e avaliar a associação entre PNB (pg/mL), morte, anatomia coronariana, e Escore de Risco TIMI. MÉTODOS: Quarenta pacientes com Scasest e troponina > 0,50 ng/mL tiveram seus níveis de PNB medidos na admissão e 96 horas depois, e foram acompanhados por quatro anos. A diferença entre as duas medidas foi avaliada utilizando o teste de Wilcoxon (p < 0,05). A curva ROC foi utilizada para avaliar o PNB de 96 horas preditor de morte, e a regressão logística foi usada para avaliar um possível fator de confusão entre o PNB de 96 horas, a idade e o resultado. RESULTADOS: Havia um aumento no PNB de 96 horas (148 na admissão contra 267 após 96 horas; p = 0,04). Treze pacientes morreram. Para o corte 300 pg/mL, o PNB de 96 horas foi um preditor de morte (sensibilidade, 92,30%; especificidade, 77,80%; valor preditivo positivo, 66,70%; valor preditivo negativo, 95,50%). A área sob a curva ROC foi de 0,92. Foi observado um aumento de 7,4 vezes no risco relativo de morte em quatro anos com um PNB de 96 horas > 300 pg/mL (95% CI 1,90 a 29,30 p < 0,01). Foi observada uma associação entre o PNB de 96 horas e o Escore de Risco TIMI (p < 0,01). Foi observada uma associação entre o aumento no PNB de 96 horas e a doença multiarterial (p = 0,02). CONCLUSÃO: Na Scasest com troponina positiva, o PNB de 96 horas pode ser uma ferramenta de estratificação de risco. (Arq Bras Cardiol. 2012; [online].ahead print, PP.0-0)
Resumo:
FUNDAMENTO: A doença cardiovascular continua a ser principal causa de morte nos países desenvolvidos e não é inteiramente prevista por fatores de risco clássicos. O aumento da rigidez arterial constitui um importante determinante de morbidade e mortalidade cardiovascular. OBJETIVO: Avaliar se a velocidade da onda de pulso prediz a ocorrência de acidente vascular cerebral (AVC) em pacientes hipertensos. MÉTODOS: Estudo de coorte, observacional, prospetivo, multicêntrico, incluindo 1.133 pacientes hipertensos (586 homens), com uma média de idade de 51,05 ± 12,64 anos. Todos os pacientes foram submetidos à avaliação da VOP pelo método Complior, a uma avaliação clínica pormenorizada e à medição da pressão arterial. RESULTADOS: A incidência cumulativa de risco de AVC nos hipertensos com VOP aumentada foi de 3,25% (IC: 1,97%-5,25%), em comparação com 0,78% (IC: 0,28% - 1,87%) nos hipertensos com VOP normal (risco relativo (RR) = 4,15; IC: 1,53 - 11,26). Numa análise multivariável, ajustando o modelo aos fatores de risco cardiovasculares clássicos, a VOP foi um preditor independente de AVC, com um hazard ratio (HR) = 1,40 (IC: 1,13 - 1,73, p < 0,002), indicando um incremento de 40% no risco de AVC por cada incremento de 1 m/seg na VOP. A adição da VOP a um modelo composto pelos fatores de risco cardiovascular convencionais melhorou significativamente a sua capacidade discriminativa para o risco de AVC (C de Harrel aumentou de 0,68 para 0,71 após inclusão da VOP; p <0,01). CONCLUSÃO: A distensibilidade arterial aferida pela VOP aórtica é um fator de risco independente de AVC em pacientes hipertensos, sendo recomendável a sua integração em programas de follow-up de situações em que o risco cardiovascular é manifesto.
Resumo:
FUNDAMENTO: O impacto do uso do ultrassom intracoronariano (USIC) na implantação de stents tem resultados inconclusivos. OBJETIVO: Revisão sistemática, com metanálise, do impacto do USIC na implantação de stents quanto à evolução clínica e angiográfica. MÉTODOS: Efetuada busca nas bases Medline/Pubmed, CENTRAL, Embase, Lilacs, Scopus e Web of Science. Incluídos estudos clínicos randomizados (ECR) que avaliaram o implante de stents, orientados pela USIC, comparados com aqueles utilizando a angiografia isoladamente (ANGIO). O intervalo mínimo de acompanhamento foi de seis meses, avaliados os desfechos: trombose, mortalidade, infarto do miocárdio, revascularização percutânea e cirúrgica, eventos cardiovasculares maiores (ECVM) e reestenose. Os desfechos binários foram apresentados considerando o número de eventos em cada grupo; as estimativas foram geradas por um modelo de efeitos aleatórios, considerando a estatística de Mantel-Haenzel como ponderadora e magnitude de efeito ao risco relativo (RR) com seu respectivo intervalo de confiança de 95% (IC 95%). Para quantificação da consistência entre os resultados de cada estudo, utilizou-se o teste de inconsistência I² de Higgins. RESULTADOS: Avaliados 2.689 artigos, incluídos 8 ECR. Houve redução de 27% na reestenose angiográfica (RR: 0,73; IC 95%: 0,54 - 0,97; I² = 51%) e redução estatisticamente significativa nas taxas de revascularizações percutânea e geral (RR: 0,88; IC 95%: 0,51 - 1,53; I² = 61% e RR: 0,73; IC 95%: 0,54 - 0,99; I² = 55%), sem diferença estatística na revascularização cirúrgica (RR: 0,95; IC 95%: 0,52 - 1,74; I² = 0%) em favor do USIC vs. ANGIO. Não foram observadas diferenças nos demais desfechos na comparação entre as duas estratégias. CONCLUSÃO: Angioplastias com implante de stents guiadas por USIC reduzem taxas de reestenose e de revascularizações, não tendo impacto nos desfechos ECVM, infarto agudo do miocárdio, mortalidade ou trombose.
Resumo:
FUNDAMENTO: O benefício clínico de intervenção coronária percutânea (ICP) para lesões coronárias longas é incerto; além disso, foram levantadas dúvidas questões sobre a sua segurança. OBJETIVO: Avaliar os preditores de eventos cardíacos adversos maiores (ECAM) associados à ICP utilizando Full Metal Jacket (FMJ), definido como a sobreposição de stents farmacológicos (SF) medindo >60 mm de comprimento, para lesões muito longas. MÉTODOS: Foram incluídos 136 pacientes consecutivos com lesões coronárias longas, requerendo FMJ em nosso cadastro de centro único. O desfecho primário incluiu a ocorrência combinada de todas as causas de morte, infarto do miocárdio (IM) e revascularização do vaso alvo (RVA). Variáveis demográficas, clínicas, angiográficas e de procedimento foram avaliadas por meio de análise de regressão de Cox para determinar os preditores independentes de desfecho. RESULTADOS: O comprimento médio do stent por lesão foi de 73,2 ± 12,3 mm e o diâmetro médio do vaso de referência foi de 2,9 ± 0,6 mm. O sucesso angiográfico foi de 96,3%. A ausência de ECAM foi de 94,9% em 30 dias e 85,3% em um ano. No acompanhamento de um ano, a taxa de mortalidade por todas as causas foi de 3,7% (1,5% por mortes cardíacas), a taxa de IM foi de 3,7%, e a incidência de trombose de stent (TS) definitiva ou provável foi de 2,9%. O gênero feminino [risco relativo (RR), 4,40; intervalo de confiança de 95% (IC), 1,81-10,66, p = 0,001) e ICP de artéria coronária não direita (RR, 3,49; p = 0,006; IC 95%, 1,42-8,59) foram preditores independentes de ECAM em um ano. A ausência de eventos adversos em um ano foi maior em pacientes com angina estável submetidos à ICP (RR, 0,33; IC 95% 0,13-0,80, p = 0,014). CONCLUSÕES: A ICP utilizando FMJ com SF para lesões muito longas foi eficaz, mas associada a uma alta taxa de TS em acompanhamento de um ano. No entanto, a taxa de mortalidade cardíaca, IM não relacionado a procedimento, e ECAM foi relativamente baixa. ICP de vaso coronário alvo, apresentação clínica, e gênero feminino são novos fatores clínicos contemporâneos que parecem apresentar efeitos adversos sobre o resultado da ICP utilizando FMJ para lesões longas.
Resumo:
1) Chamamos um desvio relativo simples o quociente de um desvio, isto é, de uma diferença entre uma variável e sua média ou outro valor ideal, e o seu erro standard. D= v-v/ δ ou D = v-v2/δ Num desvio composto nós reunimos vários desvios de acordo com a equação: D = + Σ (v - 2)²: o o = o1/ o o Todo desvio relativo é caracterizado por dois graus de liberdade (número de variáveis livres) que indicam de quantas observações foi calculado o numerador (grau de liberdade nf1 ou simplesmente n2) e o denominador (grau de liberdade nf2 ou simplesmente n2). 2) Explicamos em detalhe que a chamada distribuição normal ou de OAUSS é apenas um caso especial que nós encontramos quando o erro standard do dividendo do desvio relativo é calculado de um número bem grande de observações ou determinado por uma fórmula teórica. Para provar este ponto foi demonstrado que a distribuição de GAUSS pode ser derivada da distribuição binomial quando o expoente desta torna-se igual a infinito (Fig.1). 3) Assim torna-se evidente que um estudo detalhado da variação do erro standard é necessário. Mostramos rapidamente que, depois de tentativas preliminares de LEXIS e HELMERT, a solução foi achada pelos estatísticos da escola londrina: KARL PEARSON, o autor anônimo conhecido pelo nome de STUDENT e finalmente R. A. FISHER. 4) Devemos hoje distinguir quatro tipos diferentes de dis- tribuições de acaso dos desvios relativos, em dependência de combinação dos graus de liberdade n1 e n2. Distribuição de: fisher 1 < nf1 < infinito 1 < nf2 < infinito ( formula 9-1) Pearson 1 < nf1 < infinito nf 2= infinito ( formula 3-2) Student nf2 = 1 1 < nf2= infinito ( formula 3-3) Gauss nf1 = 1 nf2= infinito ( formula 3-4) As formas das curvas (Fig. 2) e as fórmulas matemáticas dos quatro tipos de distribuição são amplamente discutidas, bem como os valores das suas constantes e de ordenadas especiais. 5) As distribuições de GAUSS e de STUDENT (Figs. 2 e 5) que correspondem a variação de desvios simples são sempre simétricas e atingem o seu máximo para a abcissa D = O, sendo o valor da ordenada correspondente igual ao valor da constante da distribuição, k1 e k2 respectivamente. 6) As distribuições de PEARSON e FISHER (Fig. 2) correspondentes à variação de desvios compostos, são descontínuas para o valor D = O, existindo sempre duas curvas isoladas, uma à direita e outra à esquerda do valor zero da abcissa. As curvas são assimétricas (Figs. 6 a 9), tornando-se mais e mais simétricas para os valores elevados dos graus de liberdade. 7) A natureza dos limites de probabilidade é discutida. Explicámos porque usam-se em geral os limites bilaterais para as distribuições de STUDENT e GAUSS e os limites unilaterais superiores para as distribuições de PEARSON e FISHER (Figs. 3 e 4). Para o cálculo dos limites deve-se então lembrar que o desvio simples, D = (v - v) : o tem o sinal positivo ou negativo, de modo que é em geral necessário determinar os limites bilaterais em ambos os lados da curva (GAUSS e STUDENT). Os desvios relativos compostos da forma D = O1 : o2 não têm sinal determinado, devendo desprezar-se os sinais. Em geral consideramos apenas o caso o1 ser maior do que o2 e os limites se determinam apenas na extremidade da curva que corresponde a valores maiores do que 1. (Limites unilaterais superiores das distribuições de PEARSON e FISHER). Quando a natureza dos dados indica a possibilidade de aparecerem tanto valores de o(maiores como menores do que o2,devemos usar os limites bilaterais, correspondendo os limites unilaterais de 5%, 1% e 0,1% de probabilidade, correspondendo a limites bilaterais de 10%, 2% e 0,2%. 8) As relações matemáticas das fórmulas das quatro distribuições são amplamente discutidas, como também a sua transformação de uma para outra quando fazemos as necessárias alterações nos graus de liberdade. Estas transformações provam matematicamente que todas as quatro distribuições de acaso formam um conjunto. Foi demonstrado matematicamente que a fórmula das distribuições de FISHER representa o caso geral de variação de acaso de um desvio relativo, se nós extendermos a sua definição desde nfl = 1 até infinito e desde nf2 = 1 até infinito. 9) Existe apenas uma distribuição de GAUSS; podemos calcular uma curva para cada combinação imaginável de graus de liberdade para as outras três distribuições. Porém, é matematicamente evidente que nos aproximamos a distribuições limitantes quando os valores dos graus de liberdade se aproximam ao valor infinito. Partindo de fórmulas com área unidade e usando o erro standard como unidade da abcissa, chegamos às seguintes transformações: a) A distribuição de STUDENT (Fig. 5) passa a distribuição de GAUSS quando o grau de liberdade n2 se aproxima ao valor infinito. Como aproximação ao infinito, suficiente na prática, podemos aceitar valores maiores do que n2 = 30. b) A distribuição de PEARSON (Fig. 6) passa para uma de GAUSS com média zero e erro standard unidade quando nl é igual a 1. Quando de outro lado, nl torna-se muito grande, a distribuição de PEARSON podia ser substituída por uma distribuição modificada de GAUSS, com média igual ale unidade da abcissa igual a 1 : V2 n 1 . Para fins práticos, valores de nl maiores do que 30 são em geral uma aproximação suficiente ao infinito. c) Os limites da distribuição de FISHER são um pouco mais difíceis para definir. I) Em primeiro lugar foram estudadas as distribuições com n1 = n2 = n e verificamos (Figs. 7 e 8) que aproximamo-nos a uma distribuição, transformada de GAUSS com média 1 e erro standard l : Vn, quando o valor cresce até o infinito. Como aproximação satisfatória podemos considerar nl = n2 = 100, ou já nl =r n2 - 50 (Fig. 8) II) Quando n1 e n2 diferem (Fig. 9) podemos distinguir dois casos: Se n1 é pequeno e n2 maior do que 100 podemos substituir a distribuição de FISHER pela distribuição correspondente de PEARSON. (Fig. 9, parte superior). Se porém n1é maior do que 50 e n2 maior do que 100, ou vice-versa, atingimos uma distribuição modificada de GAUSS com média 1 e erro standard 1: 2n1 n3 n1 + n2 10) As definições matemáticas e os limites de probabilidade para as diferentes distribuições de acaso são dadas em geral na literatura em formas bem diversas, usando-se diferentes sistemas de abcissas. Com referência às distribuições de FISHER, foi usado por este autor, inicialmente, o logarítmo natural do desvio relativo, como abcissa. SNEDECOR (1937) emprega o quadrado dos desvios relativos e BRIEGER (1937) o desvio relativo próprio. As distribuições de PEARSON são empregadas para o X2 teste de PEARSON e FISHER, usando como abcissa os valores de x² = D². n1 Foi exposto o meu ponto de vista, que estas desigualdades trazem desvantagens na aplicação dos testes, pois atribui-se um peso diferente aos números analisados em cada teste, que são somas de desvios quadrados no X2 teste, somas des desvios quadrados divididos pelo grau de liberdade ou varianças no F-teste de SNEDECOR, desvios simples no t-teste de STUDENT, etc.. Uma tábua dos limites de probabilidade de desvios relativos foi publicada por mim (BRIEGER 1937) e uma tábua mais extensa será publicada em breve, contendo os limites unilaterais e bilaterais, tanto para as distribuições de STUDENT como de FISHER. 11) Num capítulo final são discutidas várias complicações que podem surgir na análise. Entre elas quero apenas citar alguns problemas. a) Quando comparamos o desvio de um valor e sua média, deveríamos corretamente empregar também os erros de ambos estes valores: D = u- u o2 +²5 Mas não podemos aqui imediatamente aplicar os limites de qualquer das distribuições do acaso discutidas acima. Em geral a variação de v, medida por o , segue uma distribuição de STUDENT e a variação da média V segue uma distribuição de GAUSS. O problema a ser solucionado é, como reunir os limites destas distribuições num só teste. A solução prática do caso é de considerar a média como uma constante, e aplicar diretamente os limites de probabilidade das dstribuições de STUDENT com o grau de liberdade do erro o. Mas este é apenas uma solução prática. O problema mesmo é, em parte, solucionado pelo teste de BEHRENDS. b) Um outro problema se apresenta no curso dos métodos chamados "analysis of variance" ou decomposição do erro. Supomos que nós queremos comparar uma média parcial va com a média geral v . Mas podemos calcular o erro desta média parcial, por dois processos, ou partindo do erro individual aa ou do erro "dentro" oD que é, como explicado acima, uma média balançada de todos os m erros individuais. O emprego deste último garante um teste mais satisfatório e severo, pois êle é baseado sempre num grau de liberdade bastante elevado. Teremos que aplicar dois testes em seguida: Em primeiro lugar devemos decidir se o erro ou difere do êrro dentro: D = δa/δ0 n1 = np/n2 m. n p Se este teste for significante, uma substituição de oa pelo oD não será admissível. Mas mesmo quando o resultado for insignificante, ainda não temos certeza sobre a identidade dos dois erros, pois pode ser que a diferença entre eles é pequena e os graus de liberdade não são suficientes para permitir o reconhecimento desta diferença como significante. Podemos então substituirmos oa por oD de modo que n2 = m : np: D = V a - v / δa Np n = 1 n2 = np passa para D = v = - v/ δ Np n = 1 n2 = m.n p as como podemos incluir neste último teste uma apreciação das nossas dúvidas sobre o teste anterior oa: oD ? A melhor solução prática me parece fazer uso da determinação de oD, que é provavelmente mais exata do que oa, mas usar os graus de liberdade do teste simples: np = 1 / n2 = np para deixar margem para as nossas dúvidas sobre a igualdade de oa a oD. Estes dois exemplos devem ser suficientes para demonstrar que apesar dos grandes progressos que nós podíamos registrar na teoria da variação do acaso, ainda existem problemas importantes a serem solucionados.
Resumo:
Na aplicação do X2-teste devemos distinguir dois casos : Á) Quando as classes de variáveis são caracterizadas por freqüências esperadas entre p = 0,1 e p = 0,9, podemos aplicar o X2-teste praticamente sem restrição. É talvez aconselhável, mas não absolutamente necessário limitar o teste aos casos nos quais a freqüência esperada é pelo menos igual a 5. e porisso incluimos na Táboa II os limites da variação de dois binômios ( 1/2 + 1/2)n ( 1/4 + 3/4)n para valo r es pequenos de N e nos três limites convencionais de precisão : ,5%, 1% e 0,1%. Neste caso, os valores dos X2 Índividuais têm apenas valor limitado e devemos sempre tomar em consideração principalmente o X2 total. O valor para cada X2 individual pode ser calculado porqualquer das expressôe seguintes: x2 = (f obs - f esp)²> f. esp = ( f obs - pn)2 pn = ( f obs% - p)2.N p% (100 - p%) O delta-teste dá o mesmo resultado estatístico como o X2-teste com duas classes, sendo o valor do X2-total algébricamente igual ao quadrado do valor de delta. Assim pode ser mais fácil às vezes calcular o X2 total como quadrado do desvio relativo da. variação alternativa : x² = ( f obs -pn)² p. (1-p)N = ( f obs - p %)2.N p% (100 - p%) B) Quando há classes com freqüência esperada menor do que p = 0,1, podemos analisar os seus valores individuais de X2, e desprezar o valor X2 para as classes com p maior do que 0,9. O X2-teste, todavia, pode agora ser aplicado apenas, quando a freqüência esperada for pelo menos igual ou maior do que 5 ou melhor ainda, igual ou maior do que 10. Quando a freqüência esperada for menor do que 5, a variação das freqüências observadas segue uma distribuição de Poisson, não sendo possível a sua substituição pela aproximação Gausseana. A táboa I dá os limites da variação da série de Poisson para freqüências esperadas (em números) desde 0,001 até 15. A vantagem do emprego da nova táboa I para a comparação, classe por classe, entre distribuições esperadas e observadas é explicada num exemplo concreto. Por meio desta táboa obtemos informações muito mais detablhadas do que pelo X2-teste devido ao fato que neste último temos que reunir as classes nas extremidades das distribuições até que a freqüência esperada atinja pelo menos o valor 5. Incluimos como complemento uma táboa dos limites X2, pára 1 até 30 graus de liberdade, tirada de um outro trabalho recente (BRIEGER, 1946). Para valores maiores de graus da liberdade, podemos calcular os limites por dois processos: Podemos usar uma solução dada por Fischer: √ 2 X² -√ 2 nf = delta Devem ser aplicados os limites unilaterais da distribuição de Gauss : 5%:1, 64; 1%:2,32; 0,1%:3,09: Uma outra solução podemos obter segundo BRIEGER (1946) calculando o valor: √ x² / nf = teta X nf = teta e procurando os limites nas táboas para limites unilaterais de distribuições de Fischer, com nl = nf(X2); n2 = inf; (BRIEGER, 1946).
Resumo:
O presente trabalho teve por objetivo a determinação da concentração de cobre e o estudo das quantidades absorvidas do elemento citado, pela cana de açúcar Co 419, crescendo em condições de campo na região de Piracicaba, Estado de São Paulo. As amostras eram provenientes de 3 repetições, de um tratamento no qual as nlantas sofreram adu-bação com nitrogênio, fósforo e potássio, variando as plantas de 6 a 15 meses de idade. O método utilizado na determinação do cobre, foi o do dietilditiocarbamato de sódio. A concentração de cobre apresentou um relativo decréscimo, com o aumento de idade da planta, variando os teores de cobre no colmo de 7,4 a 62,8 ppm e na folha de 10,0 a 30,0 ppm. Quanto a absorção do cobre, a planta apresentou um aumento proporcional a idade. A mesma absorveu maior quantidade no 14.° mês, 412,2 miligramas de cobre, por 4 touceiras.
Resumo:
Na presente nota o autor apresenta os resultados obtidos em um estudo para a determinação do nivel crítico relativo ao fósforo em solos acima do qual nao se deve esperar resposta a adubação fosfatada. O processo utilizado foi o de CATE & NELSON (1965), avaliando-se, porém, o teor de fósforo disponível pela técnica do valor L de LARSEN (1952), modificada, ora considerando a parcela do fosforo do fertilizante padrão fixada pelo solo, ora não.
Resumo:
Em condições de campo, estudou-se através da análise de crescimento, os efeitos de pragas do amendoinzeiro nos fatores fisiológicos ligados à capacidade de produção da cultura. Verificou-se que em um mesmo sistema ecológico, o tratamento da cultura com defensivo incrementa o índice de área foliar e a relação de área foliar, devido a manutenção da população de pragas em nível inferior, com relação ao cultivo sem aplicação do inseticida. A taxa de assimilação aparente e a taxa de crescimento relativo revelaram-se superiores no tratamento sem defensivo, indicando que o ganho em produtos de fotossíntese e a produção de matéria seca por unidade foliar, são mais elevados neste tratamento.
Resumo:
A manutenção de um balanço hídrico favorável à planta é uma condição reconhecidamente necessária para assegurar a seqüência das reações metabólicas que se desenvolvem nas células vegetais. Os deficits de água¹ nas plantas poderiam ser quantitativamente avaliados a partir de determinações do teor ou do estado de energia da água dos tecidos. Neste trabalho, o potencial osmótico das hastes e folhas, o potencial da água da folha e as relações entre este e o teor relativo de água da folha foram determinados em plantas de batata (Solanum tuberosum L.) adequadamente supridas com água do solo, em condições de campo. Os resultados revelaram que os potenciais determinados variaram durante o ciclo fenológico. Assim, o potencial da água da folha foi sendo reduzido com o desenvolvimento das plantas. Após o completo desenvolvimento vegetativo, não foi possível identificar qualquer tendência definida, crescente ou decrescente. Esta variação modificou as relações entre o potencial e o teor relativo de água da folha, de tal maneira, que o potencial associado a um determinado teor relativo de água, foi sendo reduzido a medida que as plantas se desenvolveram. A par destes resultados, pode-se concluir que o potencial da água da folha não parece ser um indicador seguro da existência de déficits fisiológicos de água na planta. O conhecimento do teor relativo de água, associado ao potencial, poderia contribuir decisivamente para fornecer uma avaliação mais precisa da condição da água nos tecidos vegetais.
Resumo:
O atual conhecimento relativo à distribuição em percentagem das várias frações de enxofre nos solos provem principalmente dos estudos dos solos de regiões temperadas. Em vista disso, este estudo foi conduzido para determinar as frações do S e as relações C-N-P-S em alguns solos da região subtropical dos Estados de São Paulo e do Paraná, Brasil, e comparar estes valores nestes solos com aqueles nos solos do Estado de Iowa, dos Estados Unidos da América do Norte. As análises das frações de enxofre nos solos dos dois países, indicaram que os solos do Brasil contem sulfato inorgânico adsorvido. Expressos como percentagem do S total, os solos do Brasil acusaram de 5 a 23% (média 11%) de S-sulfato inorgânico, de 20 a 65% (média 40%) de S-ester sulfato, de 5 a 12% (média 7%) de S-ligado ao Carbono e de 24 a 59% (média 42%) de S orgânico não identificado. As percentagens correspondentes nos solos de Iowa foram de 2 a 8% (média 5%) de S-sulfato inorgânico, de 43 a 60% (média 50%) de S-ester sufato, de 7 a 18% (média 11%) de enxofre ligado ao carbono e de 30 a 39% (média 34%) de S orgânico, não identificado. Outrossim, não foi encontrado o enxofre inorgânico não-sulfato em nenhum dos solos analisados. Houve grandes variações nas relações C, N, Ρ e S entre solos brasileiros quando comparados com aqueles do Iowa.