991 resultados para Lindsay, Hal: 948 : vuosi, jolloin loppu alkoi


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Global scale analyses of soil and foliage δ15N have found positive relationships between δ15N and ecosystem N loss (suggesting an open N cycle) and a negative relationship between δ15N and water availability. We show here that soils and leaves from tropical heath forests are depleted in 15N relative to 'typical' forests suggesting that they have a tight N cycle and are therefore limited by N rather than by, often suggested, water availability.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Avaliar as propriedades psicométricas da Escala de Atitudes Alimentares Transtornadas (EAAT) para o sexo masculino. MÉTODOS: Duzentos e vinte e oito universitários (18-39 anos) responderam à EAAT, originalmente desenvolvida e validada para o sexo feminino. A consistência interna foi avaliada pelo Alpha de Cronbach e a validade convergente, por meio do coeficiente de correlação de Pearson comparando os escores da EAAT, do Teste de Atitudes Alimentares (EAT) e da Escala de Restrição (RS). A reprodutibilidade foi avaliada aplicando a escala numa subamostra (n = 38) com um mês de intervalo utilizando o coeficiente de correlação intraclasse (CCI). A validade known-groups foi obtida comparando o escore dos universitários na EAAT com o escore de homens com diagnóstico de transtornos alimentares (TA) (n = 28). RESULTADOS: A consistência interna da escala foi de 0,63. O escore da EAAT foi correlacionado com a EAT (r = 0,65) e RS (r = 0,51), e o CCI entre o teste e o reteste foi de 0,948. A análise known-groups diferenciou pacientes com TA de estudantes universitários (p < 0,001). CONCLUSÕES: A escala apresentou propriedades psicométricas adequadas e pode ser utilizada em estudos com homens adultos - uma vez que o constructo é pouco explorado em homens. Recomenda-se, de qualquer forma, uma revisão da escala e desenvolvimento de instrumentos específicos para o público masculino.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

FUNDAMENTO: O Acidente Vascular Cerebral (AVC) constitui uma das primeiras causas de morte a nível mundial. A importância do espessamento da íntima-média na estratificação de risco cardiovascular tem sido recorrentemente estudada; contudo, essa relação gera ainda alguma controvérsia. OBJETIVOS: Determinar se o espessamento da íntima-média na Artéria Carótida Comum (ACC) pode ser utilizado como um marcador independente de alto risco para a ocorrência do AVC. MÉTODOS: A amostra compreende um grupo de 948 doentes consecutivamente estudados por Triplex Scan Cervical no período compreendido entre janeiro de 2004 e junho de 2009. Esses doentes foram agrupados em razão da presença ou ausência de AVC recente, do que resultou um grupo de doentes com AVC Isquémico (AVC I) (n = 452, 48%), outro com AVC Hemorrágico (AVC H) (n = 22, 2%) e um grupo de doentes Sem Eventos (n = 474, 50%). RESULTADOS: Na análise de regressão logística ajustada para fatores de risco cardiovascular clássicos, o espessamento da íntima-média na ACC associou-se significativamente e de forma aproximadamente linear com o AVC I (Odds Ratio = 1.808, Intervalo de Confiança: 1.291-2.534, p = 0,01), mas não com o AVC H (p = ns). Uma interação significativa com a idade foi também encontrada, demonstrando-se uma capacidade discriminativa do risco de AVC I maior em indivíduos com idade inferior a 50 anos. CONCLUSÕES: O espessamento da íntima-média na ACC revelou-se um preditor de risco independente para o AVC I, mas não para AVC H reforçando assim a utilidade da sua avaliação na prática clínica. (Arq Bras Cardiol. 2012; [online].ahead print, PP.0-0)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The general properties of POISSON distributions and their relations to the binomial distribuitions are discussed. Two methods of statistical analysis are dealt with in detail: X2-test. In order to carry out the X2-test, the mean frequency and the theoretical frequencies for all classes are calculated. Than the observed and the calculated frequencies are compared, using the well nown formula: f(obs) - f(esp) 2; i(esp). When the expected frequencies are small, one must not forget that the value of X2 may only be calculated, if the expected frequencies are biger than 5. If smaller values should occur, the frequencies of neighboroughing classes must ge pooled. As a second test reintroduced by BRIEGER, consists in comparing the observed and expected error standard of the series. The observed error is calculated by the general formula: &#948; + Σ f . VK n-1 where n represents the number of cases. The theoretical error of a POISSON series with mean frequency m is always ± Vm. These two values may be compared either by dividing the observed by the theoretical error and using BRIEGER's tables for # or by dividing the respective variances and using SNEDECOR's tables for F. The degree of freedom for the observed error is one less the number of cases studied, and that of the theoretical error is always infinite. In carrying out these tests, one important point must never be overlloked. The values for the first class, even if no concrete cases of the type were observed, must always be zero, an dthe value of the subsequent classes must be 1, 2, 3, etc.. This is easily seen in some of the classical experiments. For instance in BORKEWITZ example of accidents in Prussian armee corps, the classes are: no, one, two, etc., accidents. When counting the frequency of bacteria, these values are: no, one, two, etc., bacteria or cultures of bacteria. Ins studies of plant diseases equally the frequencies are : no, one, two, etc., plants deseased. Howewer more complicated cases may occur. For instance, when analising the degree of polyembriony, frequently the case of "no polyembryony" corresponds to the occurrence of one embryo per each seed. Thus the classes are not: no, one, etc., embryo per seed, but they are: no additional embryo, one additional embryo, etc., per seed with at least one embryo. Another interestin case was found by BRIEGER in genetic studies on the number os rows in maize. Here the minimum number is of course not: no rows, but: no additional beyond eight rows. The next class is not: nine rows, but: 10 rows, since the row number varies always in pairs of rows. Thus the value of successive classes are: no additional pair of rows beyond 8, one additional pair (or 10 rows), two additional pairs (or 12 rows) etc.. The application of the methods is finally shown on the hand of three examples : the number of seeds per fruit in the oranges M Natal" and "Coco" and in "Calamondin". As shown in the text and the tables, the agreement with a POISSON series is very satisfactory in the first two cases. In the third case BRIEGER's error test indicated a significant reduction of variability, and the X2 test showed that there were two many fruits with 4 or 5 seeds and too few with more or with less seeds. Howewer the fact that no fruit was found without seed, may be taken to indicate that in Calamondin fruits are not fully parthenocarpic and may develop only with one seed at the least. Thus a new analysis was carried out, on another class basis. As value for the first class the following value was accepted: no additional seed beyond the indispensable minimum number of one seed, and for the later classes the values were: one, two, etc., additional seeds. Using this new basis for all calculations, a complete agreement of the observed and expected frequencies, of the correspondig POISSON series was obtained, thus proving that our hypothesis of the impossibility of obtaining fruits without any seed was correct for Calamondin while the other two oranges were completely parthenocarpic and fruits without seeds did occur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

1) Chamamos um desvio relativo simples o quociente de um desvio, isto é, de uma diferença entre uma variável e sua média ou outro valor ideal, e o seu erro standard. D= v-v/ &#948; ou D = v-v2/&#948; Num desvio composto nós reunimos vários desvios de acordo com a equação: D = + Σ (v - 2)²: o o = o1/ o o Todo desvio relativo é caracterizado por dois graus de liberdade (número de variáveis livres) que indicam de quantas observações foi calculado o numerador (grau de liberdade nf1 ou simplesmente n2) e o denominador (grau de liberdade nf2 ou simplesmente n2). 2) Explicamos em detalhe que a chamada distribuição normal ou de OAUSS é apenas um caso especial que nós encontramos quando o erro standard do dividendo do desvio relativo é calculado de um número bem grande de observações ou determinado por uma fórmula teórica. Para provar este ponto foi demonstrado que a distribuição de GAUSS pode ser derivada da distribuição binomial quando o expoente desta torna-se igual a infinito (Fig.1). 3) Assim torna-se evidente que um estudo detalhado da variação do erro standard é necessário. Mostramos rapidamente que, depois de tentativas preliminares de LEXIS e HELMERT, a solução foi achada pelos estatísticos da escola londrina: KARL PEARSON, o autor anônimo conhecido pelo nome de STUDENT e finalmente R. A. FISHER. 4) Devemos hoje distinguir quatro tipos diferentes de dis- tribuições de acaso dos desvios relativos, em dependência de combinação dos graus de liberdade n1 e n2. Distribuição de: fisher 1 < nf1 < infinito 1 < nf2 < infinito ( formula 9-1) Pearson 1 < nf1 < infinito nf 2= infinito ( formula 3-2) Student nf2 = 1 1 < nf2= infinito ( formula 3-3) Gauss nf1 = 1 nf2= infinito ( formula 3-4) As formas das curvas (Fig. 2) e as fórmulas matemáticas dos quatro tipos de distribuição são amplamente discutidas, bem como os valores das suas constantes e de ordenadas especiais. 5) As distribuições de GAUSS e de STUDENT (Figs. 2 e 5) que correspondem a variação de desvios simples são sempre simétricas e atingem o seu máximo para a abcissa D = O, sendo o valor da ordenada correspondente igual ao valor da constante da distribuição, k1 e k2 respectivamente. 6) As distribuições de PEARSON e FISHER (Fig. 2) correspondentes à variação de desvios compostos, são descontínuas para o valor D = O, existindo sempre duas curvas isoladas, uma à direita e outra à esquerda do valor zero da abcissa. As curvas são assimétricas (Figs. 6 a 9), tornando-se mais e mais simétricas para os valores elevados dos graus de liberdade. 7) A natureza dos limites de probabilidade é discutida. Explicámos porque usam-se em geral os limites bilaterais para as distribuições de STUDENT e GAUSS e os limites unilaterais superiores para as distribuições de PEARSON e FISHER (Figs. 3 e 4). Para o cálculo dos limites deve-se então lembrar que o desvio simples, D = (v - v) : o tem o sinal positivo ou negativo, de modo que é em geral necessário determinar os limites bilaterais em ambos os lados da curva (GAUSS e STUDENT). Os desvios relativos compostos da forma D = O1 : o2 não têm sinal determinado, devendo desprezar-se os sinais. Em geral consideramos apenas o caso o1 ser maior do que o2 e os limites se determinam apenas na extremidade da curva que corresponde a valores maiores do que 1. (Limites unilaterais superiores das distribuições de PEARSON e FISHER). Quando a natureza dos dados indica a possibilidade de aparecerem tanto valores de o(maiores como menores do que o2,devemos usar os limites bilaterais, correspondendo os limites unilaterais de 5%, 1% e 0,1% de probabilidade, correspondendo a limites bilaterais de 10%, 2% e 0,2%. 8) As relações matemáticas das fórmulas das quatro distribuições são amplamente discutidas, como também a sua transformação de uma para outra quando fazemos as necessárias alterações nos graus de liberdade. Estas transformações provam matematicamente que todas as quatro distribuições de acaso formam um conjunto. Foi demonstrado matematicamente que a fórmula das distribuições de FISHER representa o caso geral de variação de acaso de um desvio relativo, se nós extendermos a sua definição desde nfl = 1 até infinito e desde nf2 = 1 até infinito. 9) Existe apenas uma distribuição de GAUSS; podemos calcular uma curva para cada combinação imaginável de graus de liberdade para as outras três distribuições. Porém, é matematicamente evidente que nos aproximamos a distribuições limitantes quando os valores dos graus de liberdade se aproximam ao valor infinito. Partindo de fórmulas com área unidade e usando o erro standard como unidade da abcissa, chegamos às seguintes transformações: a) A distribuição de STUDENT (Fig. 5) passa a distribuição de GAUSS quando o grau de liberdade n2 se aproxima ao valor infinito. Como aproximação ao infinito, suficiente na prática, podemos aceitar valores maiores do que n2 = 30. b) A distribuição de PEARSON (Fig. 6) passa para uma de GAUSS com média zero e erro standard unidade quando nl é igual a 1. Quando de outro lado, nl torna-se muito grande, a distribuição de PEARSON podia ser substituída por uma distribuição modificada de GAUSS, com média igual ale unidade da abcissa igual a 1 : V2 n 1 . Para fins práticos, valores de nl maiores do que 30 são em geral uma aproximação suficiente ao infinito. c) Os limites da distribuição de FISHER são um pouco mais difíceis para definir. I) Em primeiro lugar foram estudadas as distribuições com n1 = n2 = n e verificamos (Figs. 7 e 8) que aproximamo-nos a uma distribuição, transformada de GAUSS com média 1 e erro standard l : Vn, quando o valor cresce até o infinito. Como aproximação satisfatória podemos considerar nl = n2 = 100, ou já nl =r n2 - 50 (Fig. 8) II) Quando n1 e n2 diferem (Fig. 9) podemos distinguir dois casos: Se n1 é pequeno e n2 maior do que 100 podemos substituir a distribuição de FISHER pela distribuição correspondente de PEARSON. (Fig. 9, parte superior). Se porém n1é maior do que 50 e n2 maior do que 100, ou vice-versa, atingimos uma distribuição modificada de GAUSS com média 1 e erro standard 1: 2n1 n3 n1 + n2 10) As definições matemáticas e os limites de probabilidade para as diferentes distribuições de acaso são dadas em geral na literatura em formas bem diversas, usando-se diferentes sistemas de abcissas. Com referência às distribuições de FISHER, foi usado por este autor, inicialmente, o logarítmo natural do desvio relativo, como abcissa. SNEDECOR (1937) emprega o quadrado dos desvios relativos e BRIEGER (1937) o desvio relativo próprio. As distribuições de PEARSON são empregadas para o X2 teste de PEARSON e FISHER, usando como abcissa os valores de x² = D². n1 Foi exposto o meu ponto de vista, que estas desigualdades trazem desvantagens na aplicação dos testes, pois atribui-se um peso diferente aos números analisados em cada teste, que são somas de desvios quadrados no X2 teste, somas des desvios quadrados divididos pelo grau de liberdade ou varianças no F-teste de SNEDECOR, desvios simples no t-teste de STUDENT, etc.. Uma tábua dos limites de probabilidade de desvios relativos foi publicada por mim (BRIEGER 1937) e uma tábua mais extensa será publicada em breve, contendo os limites unilaterais e bilaterais, tanto para as distribuições de STUDENT como de FISHER. 11) Num capítulo final são discutidas várias complicações que podem surgir na análise. Entre elas quero apenas citar alguns problemas. a) Quando comparamos o desvio de um valor e sua média, deveríamos corretamente empregar também os erros de ambos estes valores: D = u- u o2 +²5 Mas não podemos aqui imediatamente aplicar os limites de qualquer das distribuições do acaso discutidas acima. Em geral a variação de v, medida por o , segue uma distribuição de STUDENT e a variação da média V segue uma distribuição de GAUSS. O problema a ser solucionado é, como reunir os limites destas distribuições num só teste. A solução prática do caso é de considerar a média como uma constante, e aplicar diretamente os limites de probabilidade das dstribuições de STUDENT com o grau de liberdade do erro o. Mas este é apenas uma solução prática. O problema mesmo é, em parte, solucionado pelo teste de BEHRENDS. b) Um outro problema se apresenta no curso dos métodos chamados "analysis of variance" ou decomposição do erro. Supomos que nós queremos comparar uma média parcial va com a média geral v . Mas podemos calcular o erro desta média parcial, por dois processos, ou partindo do erro individual aa ou do erro "dentro" oD que é, como explicado acima, uma média balançada de todos os m erros individuais. O emprego deste último garante um teste mais satisfatório e severo, pois êle é baseado sempre num grau de liberdade bastante elevado. Teremos que aplicar dois testes em seguida: Em primeiro lugar devemos decidir se o erro ou difere do êrro dentro: D = &#948;a/&#948;0 n1 = np/n2 m. n p Se este teste for significante, uma substituição de oa pelo oD não será admissível. Mas mesmo quando o resultado for insignificante, ainda não temos certeza sobre a identidade dos dois erros, pois pode ser que a diferença entre eles é pequena e os graus de liberdade não são suficientes para permitir o reconhecimento desta diferença como significante. Podemos então substituirmos oa por oD de modo que n2 = m : np: D = V a - v / &#948;a Np n = 1 n2 = np passa para D = v = - v/ &#948; Np n = 1 n2 = m.n p as como podemos incluir neste último teste uma apreciação das nossas dúvidas sobre o teste anterior oa: oD ? A melhor solução prática me parece fazer uso da determinação de oD, que é provavelmente mais exata do que oa, mas usar os graus de liberdade do teste simples: np = 1 / n2 = np para deixar margem para as nossas dúvidas sobre a igualdade de oa a oD. Estes dois exemplos devem ser suficientes para demonstrar que apesar dos grandes progressos que nós podíamos registrar na teoria da variação do acaso, ainda existem problemas importantes a serem solucionados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The main object of the present paper consists in giving formulas and methods which enable us to determine the minimum number of repetitions or of individuals necessary to garantee some extent the success of an experiment. The theoretical basis of all processes consists essentially in the following. Knowing the frequency of the desired p and of the non desired ovents q we may calculate the frequency of all possi- ble combinations, to be expected in n repetitions, by expanding the binomium (p-+q)n. Determining which of these combinations we want to avoid we calculate their total frequency, selecting the value of the exponent n of the binomium in such a way that this total frequency is equal or smaller than the accepted limit of precision n/pª{ 1/n1 (q/p)n + 1/(n-1)| (q/p)n-1 + 1/ 2!(n-2)| (q/p)n-2 + 1/3(n-3) (q/p)n-3... < Plim - -(1b) There does not exist an absolute limit of precision since its value depends not only upon psychological factors in our judgement, but is at the same sime a function of the number of repetitions For this reasen y have proposed (1,56) two relative values, one equal to 1-5n as the lowest value of probability and the other equal to 1-10n as the highest value of improbability, leaving between them what may be called the "region of doubt However these formulas cannot be applied in our case since this number n is just the unknown quantity. Thus we have to use, instead of the more exact values of these two formulas, the conventional limits of P.lim equal to 0,05 (Precision 5%), equal to 0,01 (Precision 1%, and to 0,001 (Precision P, 1%). The binominal formula as explained above (cf. formula 1, pg. 85), however is of rather limited applicability owing to the excessive calculus necessary, and we have thus to procure approximations as substitutes. We may use, without loss of precision, the following approximations: a) The normal or Gaussean distribution when the expected frequency p has any value between 0,1 and 0,9, and when n is at least superior to ten. b) The Poisson distribution when the expected frequecy p is smaller than 0,1. Tables V to VII show for some special cases that these approximations are very satisfactory. The praticai solution of the following problems, stated in the introduction can now be given: A) What is the minimum number of repititions necessary in order to avoid that any one of a treatments, varieties etc. may be accidentally always the best, on the best and second best, or the first, second, and third best or finally one of the n beat treatments, varieties etc. Using the first term of the binomium, we have the following equation for n: n = log Riim / log (m:) = log Riim / log.m - log a --------------(5) B) What is the minimun number of individuals necessary in 01der that a ceratin type, expected with the frequency p, may appaer at least in one, two, three or a=m+1 individuals. 1) For p between 0,1 and 0,9 and using the Gaussean approximation we have: on - ó. p (1-p) n - a -1.m b= &#948;. 1-p /p e c = m/p } -------------------(7) n = b + b² + 4 c/ 2 n´ = 1/p n cor = n + n' ---------- (8) We have to use the correction n' when p has a value between 0,25 and 0,75. The greek letters delta represents in the present esse the unilateral limits of the Gaussean distribution for the three conventional limits of precision : 1,64; 2,33; and 3,09 respectively. h we are only interested in having at least one individual, and m becomes equal to zero, the formula reduces to : c= m/p o para a = 1 a = { b + b²}² = b² = &#948;2 1- p /p }-----------------(9) n = 1/p n (cor) = n + n´ 2) If p is smaller than 0,1 we may use table 1 in order to find the mean m of a Poisson distribution and determine. n = m: p C) Which is the minimun number of individuals necessary for distinguishing two frequencies p1 and p2? 1) When pl and p2 are values between 0,1 and 0,9 we have: n = { &#948; p1 ( 1-pi) + p2) / p2 (1 - p2) n= 1/p1-p2 }------------ (13) n (cor) We have again to use the unilateral limits of the Gaussean distribution. The correction n' should be used if at least one of the valors pl or p2 has a value between 0,25 and 0,75. A more complicated formula may be used in cases where whe want to increase the precision : n (p1 - p2) &#948; { p1 (1- p2 ) / n= m &#948; = &#948; p1 ( 1 - p1) + p2 ( 1 - p2) c= m / p1 - p2 n = { b2 + 4 4 c }2 }--------- (14) n = 1/ p1 - p2 2) When both pl and p2 are smaller than 0,1 we determine the quocient (pl-r-p2) and procure the corresponding number m2 of a Poisson distribution in table 2. The value n is found by the equation : n = mg /p2 ------------- (15) D) What is the minimun number necessary for distinguishing three or more frequencies, p2 p1 p3. If the frequecies pl p2 p3 are values between 0,1 e 0,9 we have to solve the individual equations and sue the higest value of n thus determined : n 1.2 = {&#948; p1 (1 - p1) / p1 - p2 }² = Fiim n 1.2 = { &#948; p1 ( 1 - p1) + p1 ( 1 - p1) }² } -- (16) Delta represents now the bilateral limits of the : Gaussean distrioution : 1,96-2,58-3,29. 2) No table was prepared for the relatively rare cases of a comparison of threes or more frequencies below 0,1 and in such cases extremely high numbers would be required. E) A process is given which serves to solve two problemr of informatory nature : a) if a special type appears in n individuals with a frequency p(obs), what may be the corresponding ideal value of p(esp), or; b) if we study samples of n in diviuals and expect a certain type with a frequency p(esp) what may be the extreme limits of p(obs) in individual farmlies ? I.) If we are dealing with values between 0,1 and 0,9 we may use table 3. To solve the first question we select the respective horizontal line for p(obs) and determine which column corresponds to our value of n and find the respective value of p(esp) by interpolating between columns. In order to solve the second problem we start with the respective column for p(esp) and find the horizontal line for the given value of n either diretly or by approximation and by interpolation. 2) For frequencies smaller than 0,1 we have to use table 4 and transform the fractions p(esp) and p(obs) in numbers of Poisson series by multiplication with n. Tn order to solve the first broblem, we verify in which line the lower Poisson limit is equal to m(obs) and transform the corresponding value of m into frequecy p(esp) by dividing through n. The observed frequency may thus be a chance deviate of any value between 0,0... and the values given by dividing the value of m in the table by n. In the second case we transform first the expectation p(esp) into a value of m and procure in the horizontal line, corresponding to m(esp) the extreme values om m which than must be transformed, by dividing through n into values of p(obs). F) Partial and progressive tests may be recomended in all cases where there is lack of material or where the loss of time is less importent than the cost of large scale experiments since in many cases the minimun number necessary to garantee the results within the limits of precision is rather large. One should not forget that the minimun number really represents at the same time a maximun number, necessary only if one takes into consideration essentially the disfavorable variations, but smaller numbers may frequently already satisfactory results. For instance, by definition, we know that a frequecy of p means that we expect one individual in every total o(f1-p). If there were no chance variations, this number (1- p) will be suficient. and if there were favorable variations a smaller number still may yield one individual of the desired type. r.nus trusting to luck, one may start the experiment with numbers, smaller than the minimun calculated according to the formulas given above, and increase the total untill the desired result is obtained and this may well b ebefore the "minimum number" is reached. Some concrete examples of this partial or progressive procedure are given from our genetical experiments with maize.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Foram feitas determinações de zinco total, solúvel em HCl 0,1 N, solúvel em EDTA-(NH4) 2CO3 e solúvel em ditizona em 8 perfis de solos de 8 séries de solos do município de Piracicaba, Estado de São Paulo-Brasil. Para determinação do zinco total, solúvel em HCl 0,1 N, solúvel em EDTA(NH4/2CO3 e solúvel em ditizona, usouse o método de TRIERWEILER e LINDSAY (1968) e para a ditizona (NH4/2SO4 o método de SHAW e DEAN (1952). Foram estudadas as correlações entre as soluções extratoras de zinco e o zinco total, e o confronto entre os extratores químicos. A solução extratora de HCl 0,1 N extraiu maior quantidade de zinco do que as soluções do EDTA-carbonato de amônio e de ditizona acetato de amônio. Esta, por sua vez, na maior parte dos casos, não diferiu da solução do EDTA-carbonato de amônio. Estudo de correlações entre as soluções extratoras e o zinco total mostrou que apenas o HCl 0,1 N apresentou tal correlação. As principais conclusões foram as seguintes: 1- Os teores de zinco total para os perfis de solos situam-se entre 23 e 128 ppm de Zn. 2- As séries Bairrinho, Luiz de Queiroz e Guamium foram as mais altas em Zn total (46 a 128 ppm). 3- As séries Paredão Vermelho, Quebra Dente, Monte Olimpo e Lageadinho foram as mais baixas em zinco total (23 a 55 ppm de Zn). 4- O HCl 0,1 N extraiu mais zinco do que as soluções de EDTA- (NH4) 2CO3 e da ditizona e acetato de amônio. Entre estas duas soluções não houve diferença nos teores. 5- Os solos Luiz de Queiroz, Lageadinho e Bairrinho, foram os altos em zinco solúvel, pelas soluções extratoras.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo principal del proyecto era estudiar el efecto de tranquilizantes naturales sobre el bienestar de los animales y la calidad de la carne desde un punto de vista tecnológico y sensorial. Este objetivo se desglosaba en dos: OBJETIVO 1 – Evaluar la eficacia de tranquilizantes naturales (Magnesio, triptófano) en la disminución del nivel de estrés en cerdos de tres genotipos diferentes respecto del gen Hal, homocigotos dominantes NN, o portadores (Nn y nn) en el período anterior al sacrificio. OBJETIVO 2 – Estudiar el efecto de los tranquilizantes en la calidad tecnológica y sensorial de la carne (pH, capacidad de retención de agua, color, textura, olor sexual, …). Para ello se planteaban dos experimentos, el primero utilizando animales extremos, libres del gen, NN, y Hal +, nn, y el segundo con animales libres, NN, y portadores, Nn.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

BACKGROUND: Only a few studies have explored the relation between coffee and tea intake and head and neck cancers, with inconsistent results. METHODS: We pooled individual-level data from nine case-control studies of head and neck cancers, including 5,139 cases and 9,028 controls. Logistic regression was used to estimate odds ratios (OR) and 95% confidence intervals (95% CI), adjusting for potential confounders. RESULTS: Caffeinated coffee intake was inversely related with the risk of cancer of the oral cavity and pharynx: the ORs were 0.96 (95% CI, 0.94-0.98) for an increment of 1 cup per day and 0.61 (95% CI, 0.47-0.80) in drinkers of >4 cups per day versus nondrinkers. This latter estimate was consistent for different anatomic sites (OR, 0.46; 95% CI, 0.30-0.71 for oral cavity; OR, 0.58; 95% CI, 0.41-0.82 for oropharynx/hypopharynx; and OR, 0.61; 95% CI, 0.37-1.01 for oral cavity/pharynx not otherwise specified) and across strata of selected covariates. No association of caffeinated coffee drinking was found with laryngeal cancer (OR, 0.96; 95% CI, 0.64-1.45 in drinkers of >4 cups per day versus nondrinkers). Data on decaffeinated coffee were too sparse for detailed analysis, but indicated no increased risk. Tea intake was not associated with head and neck cancer risk (OR, 0.99; 95% CI, 0.89-1.11 for drinkers versus nondrinkers). CONCLUSIONS: This pooled analysis of case-control studies supports the hypothesis of an inverse association between caffeinated coffee drinking and risk of cancer of the oral cavity and pharynx. IMPACT: Given widespread use of coffee and the relatively high incidence and low survival of head and neck cancers, the observed inverse association may have appreciable public health relevance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Odds ratios for head and neck cancer increase with greater cigarette and alcohol use and lower body mass index (BMI; weight (kg)/height(2) (m(2))). Using data from the International Head and Neck Cancer Epidemiology Consortium, the authors conducted a formal analysis of BMI as a modifier of smoking- and alcohol-related effects. Analysis of never and current smokers included 6,333 cases, while analysis of never drinkers and consumers of < or =10 drinks/day included 8,452 cases. There were 8,000 or more controls, depending on the analysis. Odds ratios for all sites increased with lower BMI, greater smoking, and greater drinking. In polytomous regression, odds ratios for BMI (P = 0.65), smoking (P = 0.52), and drinking (P = 0.73) were homogeneous for oral cavity and pharyngeal cancers. Odds ratios for BMI and drinking were greater for oral cavity/pharyngeal cancer (P < 0.01), while smoking odds ratios were greater for laryngeal cancer (P < 0.01). Lower BMI enhanced smoking- and drinking-related odds ratios for oral cavity/pharyngeal cancer (P < 0.01), while BMI did not modify smoking and drinking odds ratios for laryngeal cancer. The increased odds ratios for all sites with low BMI may suggest related carcinogenic mechanisms; however, BMI modification of smoking and drinking odds ratios for cancer of the oral cavity/pharynx but not larynx cancer suggests additional factors specific to oral cavity/pharynx cancer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A continuum of carbon, from atmospheric CO2 to secondary calcium carbonate, has been studied in a soil associ- ated with scree slope deposits in the Jura Mountains of Switzerland. This approach is based on former studies conducted in other environments. This C continuum includes atmospheric CO2, soil organic matter (SOM), soil CO2, dissolved inorganic carbon (DIC) in soil solutions, and secondary pedogenic carbonate. Soil parameters (pCO2, temperature, pH, Cmin and Corg contents), soil solution chemistry, and isotopic compositions of soil CO2, DIC, carbonate and soil organic matter (&#948;13CCO2, &#948;13CDIC, &#948;13Ccar and &#948;13CSOM values) have been monitored at different depths (from 20 to 140 cm) over one year. Results demonstrated that the carbon source in secondary carbonate (mainly needle fiber calcite) is related to the dissolved inorganic carbon, which is strongly dependent on soil respiration. The heterotrophic respiration, rather than the limestone parent material, seems to control the pedogenic carbon cycle. The correlation of &#948;13Corg values with Rock-Eval HI and OI indices demonstrates that, in a soil associated to scree slope deposits, the main process responsible for 13C-enrichment in SOM is related to bac- terial oxidative decarboxylation. Finally, precipitation of secondary calcium carbonate is enhanced by changes in soil pCO2 associated to the convective movement of air masses induced by temperature gradients (heat pump effect) in the highly porous scree slope deposits. The exportation of soil C-leachates from systems such as the one studied in this paper could partially explain the "gap in the European carbon budget" reported by recent studies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Practice guidelines recommend outpatient care for selected patients with non-massive pulmonary embolism (PE), but fail to specify how these low-risk patients should be identified. Using data from U.S. patients, we previously derived the Pulmonary Embolism Severity Index (PESI), a prediction rule that risk stratifies patients with PE. We sought to validate the PESI in a European patient cohort. We prospectively validated the PESI in patients with PE diagnosed at six emergency departments in three European countries. We used baseline data for the rule's 11 prognostic variables to stratify patients into five risk classes (I-V) of increasing probability of mortality. The outcome was overall mortality at 90 days after presentation. To assess the accuracy of the PESI to predict mortality, we estimated the sensitivity, specificity, and predictive values for low- (risk classes I/II) versus higher-risk patients (risk classes III-V), and the discriminatory power using the area under the receiver operating characteristic (ROC) curve. Among 357 patients with PE, overall mortality was 5.9%, ranging from 0% in class I to 17.9% in class V. The 186 (52%) low-risk patients had an overall mortality of 1.1% (95% confidence interval [CI]: 0.1-3.8%) compared to 11.1% (95% CI: 6.8-16.8%) in the 171 (48%) higher-risk patients. The PESI had a high sensitivity (91%, 95% CI: 71-97%) and a negative predictive value (99%, 95% CI: 96-100%) for predicting mortality. The area under the ROC curve was 0.78 (95% CI: 0.70-0.86). The PESI reliably identifies patients with PE who are at low risk of death and who are potential candidates for outpatient care. The PESI may help physicians make more rational decisions about hospitalization for patients with PE.