16 resultados para Gauss Reciprocity


Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJECTIVE: In 1994 a pilot intergenerational project was started in the city of Taguatinga, Brazil, to promote the well-being of both elderly and adolescent populations using reminiscence processes as a means of interaction. The purpose of the study is to evaluate the project from the participants' viewpoint and to improve the contribution of those age groups in building up social capital. METHODS: From November 1999 to April 2000 a qualitative study using focus groups technique was conducted. Using a discussion guide, 9 groups of students, ranging in age from 13 to 19 years old, and 3 groups of elderly aged 60 years and over were interviewed to collect data regarding their interaction before and after an intergenerational program. RESULTS: The main findings suggested a change in attitude of young people toward old age and elderly people. Participating elderly people reported improvement in their health status. For both age groups the findings suggested a better understanding between generations. CONCLUSIONS: It seems that reminiscence intergenerational activity contributes to building up mutual trust and reciprocity. These results seem to indicate this is an alternative for investing in social capital and improving participants' well-being. However, further work is needed to support these findings.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Since 1958, we have studied experimental Chagas' disease (CD) by subcutaneous inoculation of 1,000 blood forms of Trypanosoma cruzi (Y strain) in Balb/C. mice. Evolution of parasitemia remained constant, beginning on the 5th and 6th day of the disease, increasing progressively, achieving a maximum on about the 30th day. After another month, only a few forms were present, and they disappeared from the circulation after the third month, as determined from direct examination of slides and the use of a Neubauer Counting Chamber. These events coincided with the appearance of amastigote nests in the tissues (especially the cardiac ones), starting the first week, and following the Gauss parasitemia curve, but they were not in parallel until the chronic stage. In 1997, we began to note the following changes: Parasites appeared in the circulation during the first week and disappeared starting on the 7th day, and there was a coincident absence of the amastigote nests in the tissues. A careful study verified that young forms in the evolutionary cycle of T. cruzi (epi + amastigotes) began to appear alongside the trypomastigotes in the circulation on the 5th and 7th post-inoculation day. At the same time, rounded, oval, and spindle shapes were seen circulating through the capillaries and sinusoids of the tissues, principally of the hematopoietic organs. Stasis occurs because the diameter of the circulating parasites is greater than the vessels, and this makes them more visible. Examination of the sternal bone marrow revealed young cells with elongated forms and others truncated in the shape of a "C" occupying the internal surface of the blood cells that had empty central portions (erythrocytes?). We hypothesize that there could be a loss of virulence or mutation of the Y strain of Trypanosoma cruzi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

1) Chamamos um desvio relativo simples o quociente de um desvio, isto é, de uma diferença entre uma variável e sua média ou outro valor ideal, e o seu erro standard. D= v-v/ δ ou D = v-v2/δ Num desvio composto nós reunimos vários desvios de acordo com a equação: D = + Σ (v - 2)²: o o = o1/ o o Todo desvio relativo é caracterizado por dois graus de liberdade (número de variáveis livres) que indicam de quantas observações foi calculado o numerador (grau de liberdade nf1 ou simplesmente n2) e o denominador (grau de liberdade nf2 ou simplesmente n2). 2) Explicamos em detalhe que a chamada distribuição normal ou de OAUSS é apenas um caso especial que nós encontramos quando o erro standard do dividendo do desvio relativo é calculado de um número bem grande de observações ou determinado por uma fórmula teórica. Para provar este ponto foi demonstrado que a distribuição de GAUSS pode ser derivada da distribuição binomial quando o expoente desta torna-se igual a infinito (Fig.1). 3) Assim torna-se evidente que um estudo detalhado da variação do erro standard é necessário. Mostramos rapidamente que, depois de tentativas preliminares de LEXIS e HELMERT, a solução foi achada pelos estatísticos da escola londrina: KARL PEARSON, o autor anônimo conhecido pelo nome de STUDENT e finalmente R. A. FISHER. 4) Devemos hoje distinguir quatro tipos diferentes de dis- tribuições de acaso dos desvios relativos, em dependência de combinação dos graus de liberdade n1 e n2. Distribuição de: fisher 1 < nf1 < infinito 1 < nf2 < infinito ( formula 9-1) Pearson 1 < nf1 < infinito nf 2= infinito ( formula 3-2) Student nf2 = 1 1 < nf2= infinito ( formula 3-3) Gauss nf1 = 1 nf2= infinito ( formula 3-4) As formas das curvas (Fig. 2) e as fórmulas matemáticas dos quatro tipos de distribuição são amplamente discutidas, bem como os valores das suas constantes e de ordenadas especiais. 5) As distribuições de GAUSS e de STUDENT (Figs. 2 e 5) que correspondem a variação de desvios simples são sempre simétricas e atingem o seu máximo para a abcissa D = O, sendo o valor da ordenada correspondente igual ao valor da constante da distribuição, k1 e k2 respectivamente. 6) As distribuições de PEARSON e FISHER (Fig. 2) correspondentes à variação de desvios compostos, são descontínuas para o valor D = O, existindo sempre duas curvas isoladas, uma à direita e outra à esquerda do valor zero da abcissa. As curvas são assimétricas (Figs. 6 a 9), tornando-se mais e mais simétricas para os valores elevados dos graus de liberdade. 7) A natureza dos limites de probabilidade é discutida. Explicámos porque usam-se em geral os limites bilaterais para as distribuições de STUDENT e GAUSS e os limites unilaterais superiores para as distribuições de PEARSON e FISHER (Figs. 3 e 4). Para o cálculo dos limites deve-se então lembrar que o desvio simples, D = (v - v) : o tem o sinal positivo ou negativo, de modo que é em geral necessário determinar os limites bilaterais em ambos os lados da curva (GAUSS e STUDENT). Os desvios relativos compostos da forma D = O1 : o2 não têm sinal determinado, devendo desprezar-se os sinais. Em geral consideramos apenas o caso o1 ser maior do que o2 e os limites se determinam apenas na extremidade da curva que corresponde a valores maiores do que 1. (Limites unilaterais superiores das distribuições de PEARSON e FISHER). Quando a natureza dos dados indica a possibilidade de aparecerem tanto valores de o(maiores como menores do que o2,devemos usar os limites bilaterais, correspondendo os limites unilaterais de 5%, 1% e 0,1% de probabilidade, correspondendo a limites bilaterais de 10%, 2% e 0,2%. 8) As relações matemáticas das fórmulas das quatro distribuições são amplamente discutidas, como também a sua transformação de uma para outra quando fazemos as necessárias alterações nos graus de liberdade. Estas transformações provam matematicamente que todas as quatro distribuições de acaso formam um conjunto. Foi demonstrado matematicamente que a fórmula das distribuições de FISHER representa o caso geral de variação de acaso de um desvio relativo, se nós extendermos a sua definição desde nfl = 1 até infinito e desde nf2 = 1 até infinito. 9) Existe apenas uma distribuição de GAUSS; podemos calcular uma curva para cada combinação imaginável de graus de liberdade para as outras três distribuições. Porém, é matematicamente evidente que nos aproximamos a distribuições limitantes quando os valores dos graus de liberdade se aproximam ao valor infinito. Partindo de fórmulas com área unidade e usando o erro standard como unidade da abcissa, chegamos às seguintes transformações: a) A distribuição de STUDENT (Fig. 5) passa a distribuição de GAUSS quando o grau de liberdade n2 se aproxima ao valor infinito. Como aproximação ao infinito, suficiente na prática, podemos aceitar valores maiores do que n2 = 30. b) A distribuição de PEARSON (Fig. 6) passa para uma de GAUSS com média zero e erro standard unidade quando nl é igual a 1. Quando de outro lado, nl torna-se muito grande, a distribuição de PEARSON podia ser substituída por uma distribuição modificada de GAUSS, com média igual ale unidade da abcissa igual a 1 : V2 n 1 . Para fins práticos, valores de nl maiores do que 30 são em geral uma aproximação suficiente ao infinito. c) Os limites da distribuição de FISHER são um pouco mais difíceis para definir. I) Em primeiro lugar foram estudadas as distribuições com n1 = n2 = n e verificamos (Figs. 7 e 8) que aproximamo-nos a uma distribuição, transformada de GAUSS com média 1 e erro standard l : Vn, quando o valor cresce até o infinito. Como aproximação satisfatória podemos considerar nl = n2 = 100, ou já nl =r n2 - 50 (Fig. 8) II) Quando n1 e n2 diferem (Fig. 9) podemos distinguir dois casos: Se n1 é pequeno e n2 maior do que 100 podemos substituir a distribuição de FISHER pela distribuição correspondente de PEARSON. (Fig. 9, parte superior). Se porém n1é maior do que 50 e n2 maior do que 100, ou vice-versa, atingimos uma distribuição modificada de GAUSS com média 1 e erro standard 1: 2n1 n3 n1 + n2 10) As definições matemáticas e os limites de probabilidade para as diferentes distribuições de acaso são dadas em geral na literatura em formas bem diversas, usando-se diferentes sistemas de abcissas. Com referência às distribuições de FISHER, foi usado por este autor, inicialmente, o logarítmo natural do desvio relativo, como abcissa. SNEDECOR (1937) emprega o quadrado dos desvios relativos e BRIEGER (1937) o desvio relativo próprio. As distribuições de PEARSON são empregadas para o X2 teste de PEARSON e FISHER, usando como abcissa os valores de x² = D². n1 Foi exposto o meu ponto de vista, que estas desigualdades trazem desvantagens na aplicação dos testes, pois atribui-se um peso diferente aos números analisados em cada teste, que são somas de desvios quadrados no X2 teste, somas des desvios quadrados divididos pelo grau de liberdade ou varianças no F-teste de SNEDECOR, desvios simples no t-teste de STUDENT, etc.. Uma tábua dos limites de probabilidade de desvios relativos foi publicada por mim (BRIEGER 1937) e uma tábua mais extensa será publicada em breve, contendo os limites unilaterais e bilaterais, tanto para as distribuições de STUDENT como de FISHER. 11) Num capítulo final são discutidas várias complicações que podem surgir na análise. Entre elas quero apenas citar alguns problemas. a) Quando comparamos o desvio de um valor e sua média, deveríamos corretamente empregar também os erros de ambos estes valores: D = u- u o2 +²5 Mas não podemos aqui imediatamente aplicar os limites de qualquer das distribuições do acaso discutidas acima. Em geral a variação de v, medida por o , segue uma distribuição de STUDENT e a variação da média V segue uma distribuição de GAUSS. O problema a ser solucionado é, como reunir os limites destas distribuições num só teste. A solução prática do caso é de considerar a média como uma constante, e aplicar diretamente os limites de probabilidade das dstribuições de STUDENT com o grau de liberdade do erro o. Mas este é apenas uma solução prática. O problema mesmo é, em parte, solucionado pelo teste de BEHRENDS. b) Um outro problema se apresenta no curso dos métodos chamados "analysis of variance" ou decomposição do erro. Supomos que nós queremos comparar uma média parcial va com a média geral v . Mas podemos calcular o erro desta média parcial, por dois processos, ou partindo do erro individual aa ou do erro "dentro" oD que é, como explicado acima, uma média balançada de todos os m erros individuais. O emprego deste último garante um teste mais satisfatório e severo, pois êle é baseado sempre num grau de liberdade bastante elevado. Teremos que aplicar dois testes em seguida: Em primeiro lugar devemos decidir se o erro ou difere do êrro dentro: D = δa/δ0 n1 = np/n2 m. n p Se este teste for significante, uma substituição de oa pelo oD não será admissível. Mas mesmo quando o resultado for insignificante, ainda não temos certeza sobre a identidade dos dois erros, pois pode ser que a diferença entre eles é pequena e os graus de liberdade não são suficientes para permitir o reconhecimento desta diferença como significante. Podemos então substituirmos oa por oD de modo que n2 = m : np: D = V a - v / δa Np n = 1 n2 = np passa para D = v = - v/ δ Np n = 1 n2 = m.n p as como podemos incluir neste último teste uma apreciação das nossas dúvidas sobre o teste anterior oa: oD ? A melhor solução prática me parece fazer uso da determinação de oD, que é provavelmente mais exata do que oa, mas usar os graus de liberdade do teste simples: np = 1 / n2 = np para deixar margem para as nossas dúvidas sobre a igualdade de oa a oD. Estes dois exemplos devem ser suficientes para demonstrar que apesar dos grandes progressos que nós podíamos registrar na teoria da variação do acaso, ainda existem problemas importantes a serem solucionados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na aplicação do X2-teste devemos distinguir dois casos : Á) Quando as classes de variáveis são caracterizadas por freqüências esperadas entre p = 0,1 e p = 0,9, podemos aplicar o X2-teste praticamente sem restrição. É talvez aconselhável, mas não absolutamente necessário limitar o teste aos casos nos quais a freqüência esperada é pelo menos igual a 5. e porisso incluimos na Táboa II os limites da variação de dois binômios ( 1/2 + 1/2)n ( 1/4 + 3/4)n para valo r es pequenos de N e nos três limites convencionais de precisão : ,5%, 1% e 0,1%. Neste caso, os valores dos X2 Índividuais têm apenas valor limitado e devemos sempre tomar em consideração principalmente o X2 total. O valor para cada X2 individual pode ser calculado porqualquer das expressôe seguintes: x2 = (f obs - f esp)²> f. esp = ( f obs - pn)2 pn = ( f obs% - p)2.N p% (100 - p%) O delta-teste dá o mesmo resultado estatístico como o X2-teste com duas classes, sendo o valor do X2-total algébricamente igual ao quadrado do valor de delta. Assim pode ser mais fácil às vezes calcular o X2 total como quadrado do desvio relativo da. variação alternativa : x² = ( f obs -pn)² p. (1-p)N = ( f obs - p %)2.N p% (100 - p%) B) Quando há classes com freqüência esperada menor do que p = 0,1, podemos analisar os seus valores individuais de X2, e desprezar o valor X2 para as classes com p maior do que 0,9. O X2-teste, todavia, pode agora ser aplicado apenas, quando a freqüência esperada for pelo menos igual ou maior do que 5 ou melhor ainda, igual ou maior do que 10. Quando a freqüência esperada for menor do que 5, a variação das freqüências observadas segue uma distribuição de Poisson, não sendo possível a sua substituição pela aproximação Gausseana. A táboa I dá os limites da variação da série de Poisson para freqüências esperadas (em números) desde 0,001 até 15. A vantagem do emprego da nova táboa I para a comparação, classe por classe, entre distribuições esperadas e observadas é explicada num exemplo concreto. Por meio desta táboa obtemos informações muito mais detablhadas do que pelo X2-teste devido ao fato que neste último temos que reunir as classes nas extremidades das distribuições até que a freqüência esperada atinja pelo menos o valor 5. Incluimos como complemento uma táboa dos limites X2, pára 1 até 30 graus de liberdade, tirada de um outro trabalho recente (BRIEGER, 1946). Para valores maiores de graus da liberdade, podemos calcular os limites por dois processos: Podemos usar uma solução dada por Fischer: √ 2 X² -√ 2 nf = delta Devem ser aplicados os limites unilaterais da distribuição de Gauss : 5%:1, 64; 1%:2,32; 0,1%:3,09: Uma outra solução podemos obter segundo BRIEGER (1946) calculando o valor: √ x² / nf = teta X nf = teta e procurando os limites nas táboas para limites unilaterais de distribuições de Fischer, com nl = nf(X2); n2 = inf; (BRIEGER, 1946).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wild type and mutant toxins of Bacillus thuringiensis delta-endotoxins were examined for their binding to midgut brush border membrane vesicles (BBMV). CryIAa, CryIAb, and CryIAc were examined for their binding to Gypsy moth (Lymantria dispar) BBMV. The binding of CryIAa and CryIAc was directly correlated with their toxicity, while CryIAb was observed to have lower binding than expected from its toxicity. The latter observation confirms the observation of Wolfersberger (1990). The "rule" of reciprocity of binding and toxicity is apparently obeyed by CryIAa and CryIAc, but broken by CryIAb on L. dispar. Alanine substitutions were made in several positions of the putative loops of CryIAa to test the hypothesis that the loops are intimately involved in binding to the receptor. The mutant toxins showed minor shifts in heterologous binding to Bombyx mori BBMV, but not enough to conclude that the residues chosen play critical roles in receptor binding.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A concentração de radicais livres semiquinona (CRLS), determinada por ressonância paramagnética eletrônica (EPR), é considerada um índice do grau de humificação, sendo uma importante determinação em estudos qualitativos da matéria orgânica do solo. Neste trabalho, avaliou-se a interferência da fração mineral na quantificação da CRLS em agregados organominerais 20-53, 2-20 e < 2 ∝m de Podzólico Vermelho-Amarelo, Podzólico Vermelho-Escuro e Latossolo Roxo. A CRLS foi determinada pela área do sinal, estimada pela aproximação intensidade do sinal (I, em cm), multiplicada pela sua largura de linha ao quadrado (∆H², em Gauss). Os parâmetros espectrais I e ∆H foram obtidos em espectros de EPR com e sem interferência da fração mineral. No Podzólico Vermelho-Amarelo e no Podzólico Vermelho-Escuro, foram detectados dois sinais de radicais livres, um com um valor g 2,004 e largura de linha de 5-6 G, típico de radicais livres semiquinona, outro com um valor g 2,000 e largura de linha de 2-3 G, associado à fração mineral, especificamente ao quartzo (SiO2), como confirmado posteriormente por análise de amostra purificada. Nestes solos, a interferência da fração mineral na obtenção dos parâmetros I e ∆H resultou num erro na estimativa da CRLS de -7 a +488%, comparativamente às quantificações realizadas a partir dos espectros sem interferência da fração mineral. No Latossolo Roxo, os altos teores de Fe3+ não permitiram detectar os sinais dos radicais livres semiquinona por causa da sobreposição dos sinais do metal. A eliminação da interferência da fração mineral demonstrou ser um pré-requisito fundamental no estudo da matéria orgânica por EPR em agregados organominerais, para a qual são sugeridos alguns procedimentos alternativos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Usando os dados reportados em artigos publicados em revistas brasileiras e trabalhos apresentados em congressos nacionais, replicaram-se as aplicações da Lei de Lotka à literatura brasileira em 10 campos diferentes. Utilizou-se o modelo do poder inverso pelos métodos do mínimo quadrado e probabilidade máxima. Das 10 literaturas nacionais analisadas, somente a literatura de medicina, siderurgia, jaca e biblioteconomia ajustaram-se ao modelo do poder inverso generalizado pelo método dos mínimos quadrados. No entanto, só duas literaturas (veterinária e cartas do Arquivo Privado de Getúlio Vargas) não se ajustaram ao modelo quando se usou o método da máxima probabilidade. Para ambas literaturas, tentaram-se modelos diferentes. A literatura de veterinária ajustou-se à distribuição binomial negativa, e as cartas do Arquivo Privado de Getúlio Vargas ajustaram-se melhor à distribuição Gauss-Poisson Inversa Generalizada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estuda a produção estratificada dos autores produtores da literatura sobre a Lei de Lotka de 1922 a 2003 e analisa essa produtividade através dos modelos Poisson lognormal e Gauss Poisson inversa generalizada. Para tanto, faz uso dos três tipos de contagem da literatura produzida: contagem direta, contagem completa e contagem fracionada. Os dados da pesquisa são avaliados usando o teste qui-quadrado ao 0.05 nível de significância. Ambos os modelos ajustam-se muito bem à distribuição da literatura produzida, porém a distribuição Poisson Gauss inversa generalizada produz um chi-quadrado menor e prediz melhor o total de autores do que a distribuição Poisson Lognormal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo analiza la productividad científica de los autores que han publicado documentos en cuatro revistas de ciencia de la información editadas en Colombia desde 1978 a 2009. Se encontraron 555 autores, de los cuales 422 (76%) publicaron un único artículo y 78 (24%) publicaron 2 o más artículos. También se identificaron 11 autores como los más productivos con 21 y 7 artículos cada uno. El número de autores observados fueron estinados con los modelos del poder inverso generalizado, Gauss Poisson inversa generalizada y Poisson lognormal por el método de la máxima probabilidad. Las pruebas de ajuste estadístico chi-cuadrado y K-S mostraron que los tres modelos se ajustan a los datos observados en este trabajo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Três formas de análise espacial foram comparadas à análise do modelo linear Gauss-Markov normal em experimentos de Genética, tendo-se suposto os efeitos de progênies como aleatórios: médias móveis nos dados brutos (MM), médias móveis nos dados residuais (Papadakis - PPD) e análise espacial por meio de modelagem de covariâncias residuais (AE). Inicialmente, ignorou-se a informação do controle local, para testar a efetividade da análise espacial. Posteriormente, foi verificado se haveria melhoras com as diferentes formas de análise espacial aplicadas ao modelo completo, considerando-se o controle local do delineamento em látice. Os valores médios de razões, entre estimativas de componentes de variância e de herdabilidade, foram usados como guia de discussão sobre qual a melhor forma de análise. Em geral, ignorar o delineamento experimental e usar somente a informação espacial resultou em análises ineficientes. Os modelos MM e PPD, em média, melhoraram o modelo original justificado pelo delineamento, embora a AE não o tenha melhorado. A AE, apesar de ineficiente, não mudou as estimativas dos componentes de variância e de herdabilidade. Esta propriedade garante que a combinação de efeitos aleatórios para progênies e a AE não violam as suposições (algumas delas justificadas pelo delineamento). Isto é especialmente útil com experimentos amplos, com grande número de progênies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho foi determinar a deposição de nutrientes na carcaça de girinos de rã-touro (Lithobates catesbeianus) por meio de modelo não linear. Foram utilizados 2.700 girinos com peso médio inicial de 0,039 g. Ração comercial farelada com 55% de proteína bruta foi fornecida ad libitum. Os animais foram pesados e avaliados a cada dez dias para análise dos conteúdos de proteína bruta, extrato etéreo, água e sais minerais. Os parâmetros do modelo Gompertz foram estimados pelo método de Gauss-Newton modificado, e as taxas de deposição (g por dia) em função do tempo foram calculadas por meio da derivada da equação. Os valores encontrados para os parâmetros da equação de Gompertz, para descrever a deposição dos nutrientes na carcaça de girinos, apresentaram interpretação biológica. A taxa máxima (t*) de deposição foi observada aos 36,2331 dias para proteína, aos 37,1420 dias para água, aos 35,2971 dias para sais minerais, e aos 41,3547 dias para gordura. O consumo de nutrientes da dieta é maior do que a taxa de deposição na carcaça dos girinos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMO O objetivo do trabalho foi avaliar o ajuste dos modelos Gompertz e Logístico, com estrutura de erros independentes e autoregressivos, no desenvolvimento de frutos de caju, com base em medidas de comprimento e largura do fruto, tomados ao longo do tempo. A estimação dos parâmetros foi feita por meio de rotinas no software R, utilizando-se o método dos mínimos quadrados e o processo iterativo de Gauss- Newton. Os modelos foram comparados pelos critérios: coeficiente de determinação ajustado (R2 aj), desvio padrão residual (DPR), critério de informação Akaike (AIC) ecritériobayesiano de Schwarz (BIC). Para os dois modelos, os dados apresentaram autocorrelação residual positiva, tanto para a variável comprimento como para a largura do fruto, descrita por processo autoregressivo de primeiraordem. Em geral, por todos critérios de avaliação da qualidade de ajuste, os dados se ajustaram ao modelo Logístico com uma estrutura autoregressiva da primeira ordem, havendo no entanto superestimação do tamanhodo fruto nas últimas idades, tanto no crescimento em comprimento (cm) e largura (cm).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivou-se, neste trabalho, avaliar o ajuste do modelo volumétrico de Schumacher e Hall por diferentes algoritmos, bem como a aplicação de redes neurais artificiais para estimação do volume de madeira de eucalipto em função do diâmetro a 1,30 m do solo (DAP), da altura total (Ht) e do clone. Foram utilizadas 21 cubagens de povoamentos de clones de eucalipto com DAP variando de 4,5 a 28,3 cm e altura total de 6,6 a 33,8 m, num total de 862 árvores. O modelo volumétrico de Schumacher e Hall foi ajustado nas formas linear e não linear, com os seguintes algoritmos: Gauss-Newton, Quasi-Newton, Levenberg-Marquardt, Simplex, Hooke-Jeeves Pattern, Rosenbrock Pattern, Simplex, Hooke-Jeeves e Rosenbrock, utilizado simultaneamente com o método Quasi-Newton e com o princípio da Máxima Verossimilhança. Diferentes arquiteturas e modelos (Multilayer Perceptron MLP e Radial Basis Function RBF) de redes neurais artificiais foram testados, sendo selecionadas as redes que melhor representaram os dados. As estimativas dos volumes foram avaliadas por gráficos de volume estimado em função do volume observado e pelo teste estatístico L&O. Assim, conclui-se que o ajuste do modelo de Schumacher e Hall pode ser usado na sua forma linear, com boa representatividade e sem apresentar tendenciosidade; os algoritmos Gauss-Newton, Quasi-Newton e Levenberg-Marquardt mostraram-se eficientes para o ajuste do modelo volumétrico de Schumacher e Hall, e as redes neurais artificiais apresentaram boa adequação ao problema, sendo elas altamente recomendadas para realizar prognose da produção de florestas plantadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This study aimed to apply mathematical models to the growth of Nile tilapia (Oreochromis niloticus) reared in net cages in the lower São Francisco basin and choose the model(s) that best represents the conditions of rearing for the region. Nonlinear models of Brody, Bertalanffy, Logistic, Gompertz, and Richards were tested. The models were adjusted to the series of weight for age according to the methods of Gauss, Newton, Gradiente and Marquardt. It was used the procedure "NLIN" of the System SAS® (2003) to obtain estimates of the parameters from the available data. The best adjustment of the data were performed by the Bertalanffy, Gompertz and Logistic models which are equivalent to explain the growth of the animals up to 270 days of rearing. From the commercial point of view, it is recommended that commercialization of tilapia from at least 600 g, which is estimated in the Bertalanffy, Gompertz and Logistic models for creating over 183, 181 and 184 days, and up to 1 Kg of mass , it is suggested the suspension of the rearing up to 244, 244 and 243 days, respectively.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Implicit reciprocity and growth in the international economy: a structuralist perspective. This paper discusses some of the structuralist ideas about international coordination and growth in an international system formed by countries whose productive structures and technological capabilities are strongly asymmetric. These ideas are formalized taking as a point of departure the Keynesian Balance-of-Payments constrained growth model with two countries. To this model is added a function (based on the catching up literature) in which the income elasticity of the demand for exports and imports depends on the technology gap. The model allows for discussing the inter-relations between the fiscal and the industrial and technological policies. It also allows for finding the rate of growth of autonomous expenditure in the periphery which ensures that it will use all the foreign exchange it earns in promoting economic growth (the principle of "automatic reciprocity").