668 resultados para Métodos de combinação


Relevância:

20.00% 20.00%

Publicador:

Resumo:

FUNDAMENTO: Pacientes com Doença Arterial Periférica (DAP) possuem um risco elevado de eventos cardiovasculares existindo uma elevada prevalência dessa patologia em pacientes com doença renal crônica. OBJETIVO: O objetivo deste estudo consiste em verificar se existe uma associação entre a DAP e a função renal em pacientes hipertensos. MÉTODOS: A amostra deste estudo foi constituída por um total de 909 pacientes com hipertensão arterial. Foi avaliada a presença de DAP, com recurso ao índice tornozelo-braço (ITB), e a determinação da função renal com base no cálculo da taxa de filtração glomerular. Os indivíduos foram divididos em grupos de acordo com o ITB anormal (< 0,9) e normal (0,9-1,4). RESULTADOS: A porcentagem de pacientes com um ITB anormal foi de 8%. No grupo de pacientes com ITB anormal a prevalência de doença renal crônica foi de 23,4%, comparativamente a uma prevalência de 11,2% no grupo com ITB normal. Por meio da análise de regressão logística multivariável, ajustando o modelo aos factores de risco cardiovasculares convencionais, identificou-se um efeito estatisticamente significativo e independente da eTFG sobre a probabilidade de desenvolvimento de DAP, com um OR de 0,987 (IC: 0,97-1,00). CONCLUSÃO: Demonstrou-se uma associação independente entre a DAP e a doença renal crônica. Dessa forma, a combinação de um diagnóstico preciso da doença renal e a medida de rotina do ITB poderá constituir um meio mais eficiente de identificação de DAP subclínica, permitindo aos indivíduos se beneficiarem de intervenções precoces com o intuito da diminuição do risco cardiovascular.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

FUNDAMENTO: Diversos registros locais buscam de forma isolada retratar características clínicas de pacientes internados com Insuficiência Cardíaca (IC) em hospitais e comunidades brasileiras. De forma geral, a análise desses dados sugere que existam diferenças importantes na etiologia, nos fatores de descompensação, no tratamento e no prognóstico de pacientes com IC nas diferentes regiões brasileiras. OBJETIVOS: Avaliar as características demográficas, clínicas, prognósticas de 1.200 pacientes admitidos com diagnóstico clínico de insuficiência cardíaca descompensada em um grupo de 60 hospitais representativos das diferentes regiões brasileiras. MÉTODOS: Estudo observacional transversal (registro) com seguimento longitudinal de doze meses (visitas de admissão, alta hospitalar, três meses, seis meses e doze meses após inclusão), em que pacientes admitidos em hospitais da rede pública e privada com quadro clínico primariamente de IC definida serão estudados. RESULTADOS: Os resultados serão apresentados logo após o término da coleta, avaliação da qualidade e análise estatística dos dados. CONCLUSÕES: A análise dos resultados deste registro multicêntrico permitirá um planejamento mais adequado do aporte de recursos financeiros, pessoais e tecnológicos para a área da saúde, bem como o planejamento de medidas preventivas mais eficazes na IC descompensada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

FUNDAMENTO: Em Síndrome Coronariana Aguda (SCA) sem Supradesnivelamento do segmento ST (SST) é importante estimar a probabilidade de eventos adversos. Para esse fim, as diretrizes recomendam modelos de estratificação de risco. O escore de risco Dante Pazzanese (escore DANTE) é um modelo simples de estratificação de risco, composto das variáveis: aumento da idade (0 a 9 pontos); antecedente de diabete melito (2 pontos) ou acidente vascular encefálico (4 pontos); não uso de inibidor da enzima conversora da angiotensina (1 ponto); elevação da creatinina (0 a 10 pontos); combinação de elevação da troponina e depressão do segmento ST (0 a 4 pontos). OBJETIVO: Validar o escore DANTE em pacientes com SCA sem SST. MÉTODOS: Estudo prospectivo, observacional, com inclusão de 457 pacientes, de setembro de 2009 a outubro de 2010. Os pacientes foram agrupados em: muito baixo, baixo, intermediário e alto risco de acordo com a pontuação do modelo original. A habilidade preditiva do escore foi avaliada pela estatística-C. RESULTADOS: Foram 291 (63,7%) homens e a média da idade 62,1 anos (11,04). Dezessete pacientes (3,7%) apresentaram o evento de morte ou (re)infarto em 30 dias. Ocorreu aumento progressivo na proporção do evento, com aumento da pontuação: muito baixo risco = 0,0%; baixo risco = 3,9%; risco intermediário = 10,9%; alto risco = 60,0%; p < 0,0001. A estatística-C foi de 0,87 (IC 95% 0,81-0,94; p < 0,0001). CONCLUSÃO: O escore DANTE apresentou excelente habilidade preditiva para ocorrência dos eventos específicos e pode ser incorporado na avaliação prognóstica de pacientes com SCA sem SST.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

FUNDAMENTO: A variabilidade da frequência cardíaca (VFC) é um importante indicador da modulação autonômica da função cardiovascular. A diabetes pode alterar a modulação autonômica danificando as entradas aferentes, dessa forma aumentando o risco de doenças cardiovasculares. Foram aplicados métodos analíticos não lineares para identificar os parâmetros associados com VFC indicativos de alterações na modulação autonômica da função cardíaca em pacientes diabéticos. OBJETIVO: Analisamos as diferenças nos padrões da VFC entre pacientes diabéticos e controles saudáveis pareados por idade, utilizando métodos não-lineares. MÉTODOS: Plot de Poincaré Lagged, autocorrelação e análise de flutuação destendenciada foram aplicados para analisar a VFC em registros de eletrocardiograma (ECG). RESULTADOS: A análise do gráfico de Poincaré lagged revelou alterações significativas em alguns parâmetros, sugestivas de diminuição da modulação parassimpática. O expoente de flutuação destendencionada derivado de um ajuste em longo prazo foi maior que o expoente em curto prazo na população diabética, o que também foi consistente com a diminuição do input parassimpático. A função de autocorrelação do desvio dos intervalos inter-batimento exibiu um padrão altamente correlacionado no grupo de diabéticos em comparação com o grupo controle. CONCLUSÃO: O padrão de VFC difere significativamente entre pacientes diabéticos e indivíduos saudáveis. Os três métodos estatísticos utilizados no estudo podem ser úteis para detectar o início e a extensão da neuropatia autonômica em pacientes diabéticos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho não tem por fim discutir exaustivamente os fatos conhecidos e as hipóteses até hoje formuladas sobre o mecanismo da evolução. Êle apresenta apenas um resumo de alguns pontos, sem entrar numa discussão detalhada da literatura, com o fim de por em relevo principalmente os métodos como podem aparecer expontaneamente novos caracteres. As nossas considerações servem como uma introdução para alguns trabalhos experimentais, que serão publicados a seguir. A) - Conhecemos até agora os seguintes modos para a obtenção de novos caracteres fenotipos: 1) - Mutação gênica. 2) - Alteração citológica como poliploidia, polisomia e aberrações na estrutura cromossômica. 3) - Recombinação gênica, ou pela combinação de efeitos específicos de gens determinadores, ou pela combinação de fatores complementares ou principalmente pela mudança no conjunto dos modificadores ("Modifier chift"). A existência deste último modo, comprovado numa série de experiências, pode ter dois efeitos : alterar a base genética de certos caracteres, sem provocar novos efeitos fenotípicos, ou então provocar novas ações fenotípicas de determinados gens. Com respeito à fisiologia do gen, não pode haver dúvida que o conjunto dos modificadores é capaz de alterar a sua ação, provocando novos efeitos e cancelando outros. B) - As duas principais modalidades de aumentar a freqüência dos novos caracteres são: 1) - Seleção natural. 2) - A flutuação das freqüências ou seleção flutuante ("genetic drift"). C) - Finalmente, discutimos rapidamente os processos indispensáveis para completar o processo de evolução : os métodos de isolamento que garantem a manutenção dos novos fenotipos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

1) Chamamos um desvio relativo simples o quociente de um desvio, isto é, de uma diferença entre uma variável e sua média ou outro valor ideal, e o seu erro standard. D= v-v/ δ ou D = v-v2/δ Num desvio composto nós reunimos vários desvios de acordo com a equação: D = + Σ (v - 2)²: o o = o1/ o o Todo desvio relativo é caracterizado por dois graus de liberdade (número de variáveis livres) que indicam de quantas observações foi calculado o numerador (grau de liberdade nf1 ou simplesmente n2) e o denominador (grau de liberdade nf2 ou simplesmente n2). 2) Explicamos em detalhe que a chamada distribuição normal ou de OAUSS é apenas um caso especial que nós encontramos quando o erro standard do dividendo do desvio relativo é calculado de um número bem grande de observações ou determinado por uma fórmula teórica. Para provar este ponto foi demonstrado que a distribuição de GAUSS pode ser derivada da distribuição binomial quando o expoente desta torna-se igual a infinito (Fig.1). 3) Assim torna-se evidente que um estudo detalhado da variação do erro standard é necessário. Mostramos rapidamente que, depois de tentativas preliminares de LEXIS e HELMERT, a solução foi achada pelos estatísticos da escola londrina: KARL PEARSON, o autor anônimo conhecido pelo nome de STUDENT e finalmente R. A. FISHER. 4) Devemos hoje distinguir quatro tipos diferentes de dis- tribuições de acaso dos desvios relativos, em dependência de combinação dos graus de liberdade n1 e n2. Distribuição de: fisher 1 < nf1 < infinito 1 < nf2 < infinito ( formula 9-1) Pearson 1 < nf1 < infinito nf 2= infinito ( formula 3-2) Student nf2 = 1 1 < nf2= infinito ( formula 3-3) Gauss nf1 = 1 nf2= infinito ( formula 3-4) As formas das curvas (Fig. 2) e as fórmulas matemáticas dos quatro tipos de distribuição são amplamente discutidas, bem como os valores das suas constantes e de ordenadas especiais. 5) As distribuições de GAUSS e de STUDENT (Figs. 2 e 5) que correspondem a variação de desvios simples são sempre simétricas e atingem o seu máximo para a abcissa D = O, sendo o valor da ordenada correspondente igual ao valor da constante da distribuição, k1 e k2 respectivamente. 6) As distribuições de PEARSON e FISHER (Fig. 2) correspondentes à variação de desvios compostos, são descontínuas para o valor D = O, existindo sempre duas curvas isoladas, uma à direita e outra à esquerda do valor zero da abcissa. As curvas são assimétricas (Figs. 6 a 9), tornando-se mais e mais simétricas para os valores elevados dos graus de liberdade. 7) A natureza dos limites de probabilidade é discutida. Explicámos porque usam-se em geral os limites bilaterais para as distribuições de STUDENT e GAUSS e os limites unilaterais superiores para as distribuições de PEARSON e FISHER (Figs. 3 e 4). Para o cálculo dos limites deve-se então lembrar que o desvio simples, D = (v - v) : o tem o sinal positivo ou negativo, de modo que é em geral necessário determinar os limites bilaterais em ambos os lados da curva (GAUSS e STUDENT). Os desvios relativos compostos da forma D = O1 : o2 não têm sinal determinado, devendo desprezar-se os sinais. Em geral consideramos apenas o caso o1 ser maior do que o2 e os limites se determinam apenas na extremidade da curva que corresponde a valores maiores do que 1. (Limites unilaterais superiores das distribuições de PEARSON e FISHER). Quando a natureza dos dados indica a possibilidade de aparecerem tanto valores de o(maiores como menores do que o2,devemos usar os limites bilaterais, correspondendo os limites unilaterais de 5%, 1% e 0,1% de probabilidade, correspondendo a limites bilaterais de 10%, 2% e 0,2%. 8) As relações matemáticas das fórmulas das quatro distribuições são amplamente discutidas, como também a sua transformação de uma para outra quando fazemos as necessárias alterações nos graus de liberdade. Estas transformações provam matematicamente que todas as quatro distribuições de acaso formam um conjunto. Foi demonstrado matematicamente que a fórmula das distribuições de FISHER representa o caso geral de variação de acaso de um desvio relativo, se nós extendermos a sua definição desde nfl = 1 até infinito e desde nf2 = 1 até infinito. 9) Existe apenas uma distribuição de GAUSS; podemos calcular uma curva para cada combinação imaginável de graus de liberdade para as outras três distribuições. Porém, é matematicamente evidente que nos aproximamos a distribuições limitantes quando os valores dos graus de liberdade se aproximam ao valor infinito. Partindo de fórmulas com área unidade e usando o erro standard como unidade da abcissa, chegamos às seguintes transformações: a) A distribuição de STUDENT (Fig. 5) passa a distribuição de GAUSS quando o grau de liberdade n2 se aproxima ao valor infinito. Como aproximação ao infinito, suficiente na prática, podemos aceitar valores maiores do que n2 = 30. b) A distribuição de PEARSON (Fig. 6) passa para uma de GAUSS com média zero e erro standard unidade quando nl é igual a 1. Quando de outro lado, nl torna-se muito grande, a distribuição de PEARSON podia ser substituída por uma distribuição modificada de GAUSS, com média igual ale unidade da abcissa igual a 1 : V2 n 1 . Para fins práticos, valores de nl maiores do que 30 são em geral uma aproximação suficiente ao infinito. c) Os limites da distribuição de FISHER são um pouco mais difíceis para definir. I) Em primeiro lugar foram estudadas as distribuições com n1 = n2 = n e verificamos (Figs. 7 e 8) que aproximamo-nos a uma distribuição, transformada de GAUSS com média 1 e erro standard l : Vn, quando o valor cresce até o infinito. Como aproximação satisfatória podemos considerar nl = n2 = 100, ou já nl =r n2 - 50 (Fig. 8) II) Quando n1 e n2 diferem (Fig. 9) podemos distinguir dois casos: Se n1 é pequeno e n2 maior do que 100 podemos substituir a distribuição de FISHER pela distribuição correspondente de PEARSON. (Fig. 9, parte superior). Se porém n1é maior do que 50 e n2 maior do que 100, ou vice-versa, atingimos uma distribuição modificada de GAUSS com média 1 e erro standard 1: 2n1 n3 n1 + n2 10) As definições matemáticas e os limites de probabilidade para as diferentes distribuições de acaso são dadas em geral na literatura em formas bem diversas, usando-se diferentes sistemas de abcissas. Com referência às distribuições de FISHER, foi usado por este autor, inicialmente, o logarítmo natural do desvio relativo, como abcissa. SNEDECOR (1937) emprega o quadrado dos desvios relativos e BRIEGER (1937) o desvio relativo próprio. As distribuições de PEARSON são empregadas para o X2 teste de PEARSON e FISHER, usando como abcissa os valores de x² = D². n1 Foi exposto o meu ponto de vista, que estas desigualdades trazem desvantagens na aplicação dos testes, pois atribui-se um peso diferente aos números analisados em cada teste, que são somas de desvios quadrados no X2 teste, somas des desvios quadrados divididos pelo grau de liberdade ou varianças no F-teste de SNEDECOR, desvios simples no t-teste de STUDENT, etc.. Uma tábua dos limites de probabilidade de desvios relativos foi publicada por mim (BRIEGER 1937) e uma tábua mais extensa será publicada em breve, contendo os limites unilaterais e bilaterais, tanto para as distribuições de STUDENT como de FISHER. 11) Num capítulo final são discutidas várias complicações que podem surgir na análise. Entre elas quero apenas citar alguns problemas. a) Quando comparamos o desvio de um valor e sua média, deveríamos corretamente empregar também os erros de ambos estes valores: D = u- u o2 +²5 Mas não podemos aqui imediatamente aplicar os limites de qualquer das distribuições do acaso discutidas acima. Em geral a variação de v, medida por o , segue uma distribuição de STUDENT e a variação da média V segue uma distribuição de GAUSS. O problema a ser solucionado é, como reunir os limites destas distribuições num só teste. A solução prática do caso é de considerar a média como uma constante, e aplicar diretamente os limites de probabilidade das dstribuições de STUDENT com o grau de liberdade do erro o. Mas este é apenas uma solução prática. O problema mesmo é, em parte, solucionado pelo teste de BEHRENDS. b) Um outro problema se apresenta no curso dos métodos chamados "analysis of variance" ou decomposição do erro. Supomos que nós queremos comparar uma média parcial va com a média geral v . Mas podemos calcular o erro desta média parcial, por dois processos, ou partindo do erro individual aa ou do erro "dentro" oD que é, como explicado acima, uma média balançada de todos os m erros individuais. O emprego deste último garante um teste mais satisfatório e severo, pois êle é baseado sempre num grau de liberdade bastante elevado. Teremos que aplicar dois testes em seguida: Em primeiro lugar devemos decidir se o erro ou difere do êrro dentro: D = δa/δ0 n1 = np/n2 m. n p Se este teste for significante, uma substituição de oa pelo oD não será admissível. Mas mesmo quando o resultado for insignificante, ainda não temos certeza sobre a identidade dos dois erros, pois pode ser que a diferença entre eles é pequena e os graus de liberdade não são suficientes para permitir o reconhecimento desta diferença como significante. Podemos então substituirmos oa por oD de modo que n2 = m : np: D = V a - v / δa Np n = 1 n2 = np passa para D = v = - v/ δ Np n = 1 n2 = m.n p as como podemos incluir neste último teste uma apreciação das nossas dúvidas sobre o teste anterior oa: oD ? A melhor solução prática me parece fazer uso da determinação de oD, que é provavelmente mais exata do que oa, mas usar os graus de liberdade do teste simples: np = 1 / n2 = np para deixar margem para as nossas dúvidas sobre a igualdade de oa a oD. Estes dois exemplos devem ser suficientes para demonstrar que apesar dos grandes progressos que nós podíamos registrar na teoria da variação do acaso, ainda existem problemas importantes a serem solucionados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper deals with the estimation of milk production by means of weekly, biweekly, bimonthly observations and also by method known as 6-5-8, where one observation is taken at the 6th week of lactation, another at 5th month and a third one at the 8th month. The data studied were obtained from 72 lactations of the Holstein Friesian breed of the "Escola Superior de Agricultura "Luiz de Queiroz" (Piracicaba), S. Paulo, Brazil), being 6 calvings on each month of year and also 12 first calvings, 12 second calvings, and so on, up to the sixth. The authors criticize the use of "maximum error" to be found in papers dealing with this subject, and also the use of mean deviation. The former is completely supersed and unadvisable and latter, although equivalent, to a certain extent, to the usual standard deviation, has only 87,6% of its efficiency, according to KENDALL (9, pp. 130-131, 10, pp. 6-7). The data obtained were compared with the actual production, obtained by daily control and the deviations observed were studied. Their means and standard deviations are given on the table IV. Inspite of BOX's recent results (11) showing that with equal numbers in all classes a certain inequality of varinces is not important, the autors separated the methods, before carrying out the analysis of variance, thus avoiding to put together methods with too different standard deviations. We compared the three first methods, to begin with (Table VI). Then we carried out the analysis with the four first methods. (Table VII). Finally we compared the two last methods. (Table VIII). These analysis of variance compare the arithmetic means of the deviations by the methods studied, and this is equivalent to compare their biases. So we conclude tht season of calving and order of calving do not effect the biases, and the methods themselves do not differ from this view point, with the exception of method 6-5-8. Another method of attack, maybe preferrable, would be to compare the estimates of the biases with their expected mean under the null hypothesis (zero) by the t-test. We have: 1) Weekley control: t = x - 0/c(x) = 8,59 - 0/ = 1,56 2) Biweekly control: t = 11,20 - 0/6,21= 1,80 3) Monthly control: t = 7,17 - 0/9,48 = 0,76 4) Bimonthly control: t = - 4,66 - 0/17,56 = -0,26 5) Method 6-5-8 t = 144,89 - 0/22,41 = 6,46*** We denote above by three asterisks, significance the 0,1% level of probability. In this way we should conclude that the weekly, biweekly, monthly and bimonthly methods of control may be assumed to be unbiased. The 6-5-8 method is proved to be positively biased, and here the bias equals 5,9% of the mean milk production. The precision of the methods studied may be judged by their standard deviations, or by intervals covering, with a certain probability (95% for example), the deviation x corresponding to an estimate obtained by cne of the methods studied. Since the difference x - x, where x is the mean of the 72 deviations obtained for each method, has a t distribution with mean zero and estimate of standard deviation. s(x - x) = √1+ 1/72 . s = 1.007. s , and the limit of t for the 5% probability, level with 71 degrees of freedom is 1.99, then the interval to be considered is given by x ± 1.99 x 1.007 s = x ± 2.00. s The intervals thus calculated are given on the table IX.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho relata a determinação do P2O5 em fertilizantes simples e em misturas, pelos métodos, espectrofotométrico (espectrofotômetro Beckman, modelo B) diferencial do ácido fosfovánadomólíbdico e pelo método volumétrico alcalimétrico (fosfomolibdato de amônio). Relata também a determinação do P2O5 solúvel em solução de ácido cítrico a 2% nos mesmos materiais, pelos métodos espectrofotométrico e colorimétrico (Klett-Summerson) dif erenciais e volumétrico. Os dados obtidos permitem afirmar que os métodos espectrofotométrico e colorimétrico diferenciais são precisos e muito mais simples e rápidos que o método volumétrico. Considerando-se que os métodos espectrofotométrico e colorimétrico são mais simples, e rápidos que o método volumétrico e que êste está mais sujeito à erros devido às operações de precipitação, filtração, lavagem do precipitado, etc, pode-se adotar os dois primeiros em substituição ao método volumétrico de determinação do P2O5 total e solúvel em solução de ácido cítrico a 2%, em fertilizantes fosfatados, simples e em misturas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é apresentada uma marcha analítica simples, rápida e acessível à maioria dos nossos laboratórios, visando a determinação de constituintes inorgânicos do caldo de cana de açúcar, vinhaça e melaço. Foram estudadas duas técnicas para a digestão do material (via seca e via úmida) e a seguir, nos extratos obtidos determinados cálcio, magnésio, potássio, enxofre e fósforo. Os dados obtidos mostraram que para a análise dos citados constituintes, nos mencionados materiais, pode ser empregado, indiferentemente, o ataque por via seca ou úmida, excetuando-se a determinação de enxofre em melaço que deve ser efetuada por via úmida. As técnicas de análise preconizadas apresentaram uma adequada precisão, conforme demonstram os resultados obtidos neste trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Foi estudada a influência de tres métodos de controle de escurecimento enzimático (branqueamento, ácido ascórbico e SO2) nas propriedades organoléticas da maçã em pedaços da variedade Ohio Beauty, conservada por congelação e liofilização. Imediatamente após seu recebimento, uma terça parte das frutas foi processada. Outra terça parte foi colocada em câmara fria a 1°C por tres semanas e a restante deixada sob as mesmas condições por seis semanas, sendo estas duas últimas processadas imediatamente após os respectivos tempos de armazenamento prévio. Os resultados mostraram que, para a congelação, o branqueamento foi o melhor tratamento para todos os atributos de qualidade, exceto para cor, em que o ácido ascórbico foi mais eficiente. Este último foi ligeiramente superior ao SO2 quanto à qualidade geral do produto. Para a liofilização, o tratamento com SO2 foi superior ao branqueamento quanto ao sabor e qualidade geral do produto, porém, foi inferior quanto à cor. Nenhum dos tratamentos, entretanto, controlou de maneira eficiente o escurecimento no produto liofilizado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Três métodos de determinação do ácido clorogênico em café verde foram comparados. Foram utilizadas seis amostras de café, sendo que três de qualidade de bebida Mole e três Rio. Os resultados obtidos com os três métodos para os cafés Rio não diferiram estatísticamente entre si, embora os métodos de MOORES et al. e WEISS (oficial da AOAC) deram valores menores para os cafés Mole em relação ao método cromatográfico de GNAGY modificado. É discutido uma provável interferência da alta atividade da polifenol oxidase geralmente encontrada nos cafés Mole que oxidaria o ácido clorogênico durante a extração pelos dois primeiros métodos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O método micro Bailey-Andrew, oficial da A. O. A, C. (1970) e o proposto por NAVELLIER et al. (1969) para determinação de cafeína em café, foram comparados. Para extração e purificação seguiu-se os dois métodos citados e para a determinação propriamente dita utilizou-se o peso, nitrogênio total, espectrofotometria com correção da linha de base e o pico à 273 nm. As seguintes conclusões foram tiradas: a) A determinação por pesagem não deve ser utilizada para nenhum dos dois métodos de extração e purificação, pois além dos valores encontrados serem bem acima dos reais, os coeficientes de variação também foram altos. b) O método de extração e purificação de NAVELLIER et al. (1969) não consegue remover interferentes nitrogenados, mas talvez possa ser utilizado quando a cafeína é determinada por espectrofotometria com correção da linha de base. c) Não houve diferença significativa entre a determinação da cafeína pelo nitrogênio e espectrofotometria com correlação da linha de base quando se seguiu a extração e purificação da A, O. A. C. (1970).