1000 resultados para Industrialização por substituição das importações
Resumo:
FUNDAMENTO: As doenças do aparelho circulatório (DAC), um dos mais importantes problemas de saúde da atualidade, apesar de proporcionalmente ainda liderarem as estatísticas de morbi-mortalidade, começam a apresentar tendência declinante da mortalidade em diversos países. OBJETIVO: Analisar a tendência da mortalidade por DAC nas capitais brasileiras, no período de 1950 a 2000. MÉTODOS: Estudo de série temporal das razões de mortalidade padronizadas por DAC. Utilizamos dados secundários de óbitos dos anuários estatísticos do IBGE e do Sistema de Informação de Mortalidade. Realizamos análise de tendência linear das razões de mortalidade padronizadas por DAC nas capitais brasileiras que apresentaram séries completas de mortalidade, considerando os anos censitários do período do estudo (1950 a 2000). RESULTADOS: Apesar de proporcionalmente as DAC representarem a primeira causa de óbito na população brasileira, bem como apresentarem crescimento proporcional no período de análise deste estudo, o risco de óbito, representado pelas razões de mortalidade padronizadas, apresenta-se em decréscimo, particularmente a partir da década de 80. Destacam-se as cidades de Fortaleza, Salvador, Belo Horizonte, Rio de Janeiro e São Paulo, que apresentam razões de mortalidade padronizadas elevadas, porém em decréscimo (p < 0,05 e p < 0,10) desde o início do período analisado. CONCLUSÃO: O comportamento do risco de óbito por DAC sugere que esse grupo de enfermidades é o que primeiro se estabelece, acompanhando o aumento da industrialização no Brasil, verificado a partir da década de 1930 e após a Segunda Guerra Mundial, Como ocorreu em São Paulo e Rio de Janeiro, que historicamente experimentaram um processo de desenvolvimento e urbanização anterior e diferenciado em relação às outras capitais.
Resumo:
FUNDAMENTO: Apesar de algumas evidências sugerirem associação entre a exposição de uma tecnologia na literatura científica e sua difusão na prática clínica, poucos estudos avaliaram essa associação. OBJETIVO: O objetivo deste estudo é analisar se o padrão de publicação científica sobre duas tecnologias competitivas utilizadas na avaliação da doença arterial coronária (DAC) reflete o que ocorre na prática clínica. MÉTODOS: Avaliou-se o número de artigos científicos publicados anualmente na literatura médica (interesse científico global na tecnologia) sobre duas tecnologias utilizadas na avaliação da doença arterial coronária: tomografia computadorizada por feixe de elétrons e tomografia computadorizada com múltiplos detectores. Foi também analisado o número de países que publicam anualmente artigos científicos sobre essas tecnologias (interesse geográfico na tecnologia). RESULTADOS: A tomografia computadorizada por feixe de elétrons (electron beam computed tomography - EBCT) apresentou ápice de "interesse científico global" em 2001, com 127 artigos publicados. Após esse ápice, o "interesse científico global" diminuiu cerca de 50% em 2008. Em oposição, o "interesse científico global" pela tomografia computadorizada com múltiplos detectores (multidetector computed tomography - MDCT) aumentou progressivamente até 2007, com 454 artigos publicados nesse ano. O "interesse científico geográfico" pela EBCT teve ápice em 2002, com 14 países publicando sobre essa tecnologia. Após esse ápice, "o interesse científico geográfico" declinou em quase 25% até 2008, com 11 países publicando artigos sobre essa tecnologia. Em oposição, o "interesse científico geográfico" pela MDCT aumentou progressivamente até 2008, com 37 países publicando artigos sobre ela. CONCLUSÃO: A literatura científica médica é compatível com a substituição da EBCT pela MDCT na avaliação da DAC.
Resumo:
FUNDAMENTO: As principais correções da anomalia de Ebstein (AE) baseiam-se na reconstrução monocúspide da valva tricúspide e são limitadas pela frequente necessidade de substituição ou pela alta reincidência de insuficiência valvar. OBJETIVO: Avaliar a viabilidade e os efeitos da correção anatômica da anomalia de Ebstein com a técnica do cone na evolução clínica dos pacientes, na função da valva tricúspide e na morfologia do ventrículo direito. MÉTODOS: Foram comparados os dados clínicos, ecocardiográficos e radiológicos de 52 pacientes consecutivos, com idade média de 18,5 ± 13,8anos, submetidos à técnica do cone, obtidos nos períodos pré-operatório, pós-operatório imediato (POI) e em longo prazo (POL). RESULTADOS: Houve dois óbitos hospitalares (3,8%) e mais dois durante o seguimento. A classe funcional média de insuficiência cardíaca pré-operatória de 2,2 melhorou para 1,2 após 57 meses de seguimento médio de 97% dos pacientes (p < 0,001). O grau médio de insuficiência tricúspide pré-operatória de 3,6 diminuiu para 1,6 no POI (p < 0,001), mantendo-se em 1,9 no POL (p > 0,05). A área funcional indexada do VD aumentou de 8,53 ± 7,02 cm2/m2 no préoperatório para 21,01±6,87 cm2/m2 no POI (p < 0,001), mantendo-se inalterada em 20,28 ± 5,26 cm2/m2 no POL (p > 0,05). O índice cardiotorácico médio foi reduzido de 0,66 ± 0,09 para 0,54 ± 0,06 (p < 0,001) em longo prazo. CONCLUSÃO: A técnica do cone apresentou baixa mortalidade hospitalar, corrigindo a insuficiência tricúspide de maneira eficaz e duradoura, com a restauração da área funcional do ventrículo direito, permitindo o remodelamento reverso do coração e a melhora clínica na maioria dos pacientes em longo prazo.
Resumo:
Geralmente, a cardiomiopatia restritiva por deposição de desmina é caracterizada pela restrição ao enchimento diastólico ventricular e por diferentes graus de bloqueio atrioventricular (BAV). Neste relato, são descritas as alterações anatomopatológicas do sistema de condução cardíaco relacionadas ao BAV. O nó sinusal, o nó compacto e o feixe penetrante (feixe de His) não apresentavam anormalidades, entretanto, havia extensa fibrose das porções terminais do feixe ramificante e do início dos feixes esquerdo e direito, no topo do septo ventricular. A patogenia dessa substituição fibrosa é provavelmente a mesma que origina a extensa fibrose do miocárdio ventricular contrátil, e permanece por ser elucidada.
Resumo:
FUNDAMENTO: A Contração Pós-Repouso (CPR) do músculo cardíaco fornece informações indiretas sobre a manipulação de cálcio intracelular. OBJETIVO: Nosso objetivo foi estudar o comportamento da CPR e seus mecanismos subjacentes em camundongos com infarto do miocárdio. MÉTODOS: Seis semanas após a oclusão coronariana, a contratilidade dos Músculos Papilares (MP) obtidos a partir de camundongos submetidos à cirurgia sham (C, n = 17), com infarto moderado (MMI, n = 10) e grande infarto (LMI, n = 14), foi avaliada após intervalos de repouso de 10 a 60 segundos antes e depois da incubação com cloreto de lítio (Li+) em substituição ao cloreto de sódio ou rianodina (Ry). A expressão proteica de SR Ca(2+)-ATPase (SERCA2), trocador Na+/Ca2+ (NCX), fosfolambam (PLB) e fosfo-Ser (16)-PLB foi analisada por Western blotting. RESULTADOS: Os camundongos MMI apresentaram potenciação de CPR reduzida em comparação aos camundongos C. Em oposição à potenciação normal para camundongos C, foram observadas degradações de força pós-repouso nos músculos de camundongos LMI. Além disso, a Ry bloqueou a degradação ou potenciação de PRC observada em camundongos LMI e C; o Li+ inibiu o NCX e converteu a degradação em potenciação de CPR em camundongos LMI. Embora os camundongos MMI e LMI tenham apresentado diminuição no SERCA2 (72 ± 7% e 47 ± 9% de camundongos controle, respectivamente) e expressão protéica de fosfo-Ser16-PLB (75 ± 5% e 46 ± 11%, respectivamente), a superexpressão do NCX (175 ± 20%) só foi observada nos músculos de camundongos LMI. CONCLUSÃO: Nossos resultados mostraram, pela primeira vez, que a remodelação miocárdica pós-IAM em camundongos pode mudar a potenciação regular para degradação pós-repouso, afetando as proteínas de manipulação de Ca(2+) em miócitos.
Resumo:
Fatos clínicos e dados numéricos sustentam interpretações sobre qualidade de vida e sobrevida no portador de cardiopatia valvar. Tais dados são úteis na tomada de decisão sobre interrupção da história natural e substituição por uma história pós-correção hemodinâmica. Competência e expertise interdisciplinar são exigidas para maximizar o resultado necessário e possível. Contudo, o ideal das recomendações para a obtenção do mais alto grau de satisfação terapêutica pelo portador de cardiopatia valvar sofre a influência de um conjunto de variáveis, parte ligadas a especificações do paciente, parte decorrentes de limitações dos métodos. O racional do escore de risco validado para marcadores múltiplos é o acréscimo de acurácia quantitativa à avaliação clínica prognóstica baseada na heterogeneidade da experiência individual e na intuição. Nesse contexto, o uso dos escores de riscos com função de predizer mortalidade pós-operatória são ferramentas úteis, de fácil aplicabilidade e que nos oferece dados objetivos sobre a situação do paciente. Das ferramentas disponíveis (EuroSCORE, STS score e Ambler Score) e utilizadas de forma assistencial, nenhuma apresenta validação em nossa população.
Resumo:
1) Chamamos um desvio relativo simples o quociente de um desvio, isto é, de uma diferença entre uma variável e sua média ou outro valor ideal, e o seu erro standard. D= v-v/ δ ou D = v-v2/δ Num desvio composto nós reunimos vários desvios de acordo com a equação: D = + Σ (v - 2)²: o o = o1/ o o Todo desvio relativo é caracterizado por dois graus de liberdade (número de variáveis livres) que indicam de quantas observações foi calculado o numerador (grau de liberdade nf1 ou simplesmente n2) e o denominador (grau de liberdade nf2 ou simplesmente n2). 2) Explicamos em detalhe que a chamada distribuição normal ou de OAUSS é apenas um caso especial que nós encontramos quando o erro standard do dividendo do desvio relativo é calculado de um número bem grande de observações ou determinado por uma fórmula teórica. Para provar este ponto foi demonstrado que a distribuição de GAUSS pode ser derivada da distribuição binomial quando o expoente desta torna-se igual a infinito (Fig.1). 3) Assim torna-se evidente que um estudo detalhado da variação do erro standard é necessário. Mostramos rapidamente que, depois de tentativas preliminares de LEXIS e HELMERT, a solução foi achada pelos estatísticos da escola londrina: KARL PEARSON, o autor anônimo conhecido pelo nome de STUDENT e finalmente R. A. FISHER. 4) Devemos hoje distinguir quatro tipos diferentes de dis- tribuições de acaso dos desvios relativos, em dependência de combinação dos graus de liberdade n1 e n2. Distribuição de: fisher 1 < nf1 < infinito 1 < nf2 < infinito ( formula 9-1) Pearson 1 < nf1 < infinito nf 2= infinito ( formula 3-2) Student nf2 = 1 1 < nf2= infinito ( formula 3-3) Gauss nf1 = 1 nf2= infinito ( formula 3-4) As formas das curvas (Fig. 2) e as fórmulas matemáticas dos quatro tipos de distribuição são amplamente discutidas, bem como os valores das suas constantes e de ordenadas especiais. 5) As distribuições de GAUSS e de STUDENT (Figs. 2 e 5) que correspondem a variação de desvios simples são sempre simétricas e atingem o seu máximo para a abcissa D = O, sendo o valor da ordenada correspondente igual ao valor da constante da distribuição, k1 e k2 respectivamente. 6) As distribuições de PEARSON e FISHER (Fig. 2) correspondentes à variação de desvios compostos, são descontínuas para o valor D = O, existindo sempre duas curvas isoladas, uma à direita e outra à esquerda do valor zero da abcissa. As curvas são assimétricas (Figs. 6 a 9), tornando-se mais e mais simétricas para os valores elevados dos graus de liberdade. 7) A natureza dos limites de probabilidade é discutida. Explicámos porque usam-se em geral os limites bilaterais para as distribuições de STUDENT e GAUSS e os limites unilaterais superiores para as distribuições de PEARSON e FISHER (Figs. 3 e 4). Para o cálculo dos limites deve-se então lembrar que o desvio simples, D = (v - v) : o tem o sinal positivo ou negativo, de modo que é em geral necessário determinar os limites bilaterais em ambos os lados da curva (GAUSS e STUDENT). Os desvios relativos compostos da forma D = O1 : o2 não têm sinal determinado, devendo desprezar-se os sinais. Em geral consideramos apenas o caso o1 ser maior do que o2 e os limites se determinam apenas na extremidade da curva que corresponde a valores maiores do que 1. (Limites unilaterais superiores das distribuições de PEARSON e FISHER). Quando a natureza dos dados indica a possibilidade de aparecerem tanto valores de o(maiores como menores do que o2,devemos usar os limites bilaterais, correspondendo os limites unilaterais de 5%, 1% e 0,1% de probabilidade, correspondendo a limites bilaterais de 10%, 2% e 0,2%. 8) As relações matemáticas das fórmulas das quatro distribuições são amplamente discutidas, como também a sua transformação de uma para outra quando fazemos as necessárias alterações nos graus de liberdade. Estas transformações provam matematicamente que todas as quatro distribuições de acaso formam um conjunto. Foi demonstrado matematicamente que a fórmula das distribuições de FISHER representa o caso geral de variação de acaso de um desvio relativo, se nós extendermos a sua definição desde nfl = 1 até infinito e desde nf2 = 1 até infinito. 9) Existe apenas uma distribuição de GAUSS; podemos calcular uma curva para cada combinação imaginável de graus de liberdade para as outras três distribuições. Porém, é matematicamente evidente que nos aproximamos a distribuições limitantes quando os valores dos graus de liberdade se aproximam ao valor infinito. Partindo de fórmulas com área unidade e usando o erro standard como unidade da abcissa, chegamos às seguintes transformações: a) A distribuição de STUDENT (Fig. 5) passa a distribuição de GAUSS quando o grau de liberdade n2 se aproxima ao valor infinito. Como aproximação ao infinito, suficiente na prática, podemos aceitar valores maiores do que n2 = 30. b) A distribuição de PEARSON (Fig. 6) passa para uma de GAUSS com média zero e erro standard unidade quando nl é igual a 1. Quando de outro lado, nl torna-se muito grande, a distribuição de PEARSON podia ser substituída por uma distribuição modificada de GAUSS, com média igual ale unidade da abcissa igual a 1 : V2 n 1 . Para fins práticos, valores de nl maiores do que 30 são em geral uma aproximação suficiente ao infinito. c) Os limites da distribuição de FISHER são um pouco mais difíceis para definir. I) Em primeiro lugar foram estudadas as distribuições com n1 = n2 = n e verificamos (Figs. 7 e 8) que aproximamo-nos a uma distribuição, transformada de GAUSS com média 1 e erro standard l : Vn, quando o valor cresce até o infinito. Como aproximação satisfatória podemos considerar nl = n2 = 100, ou já nl =r n2 - 50 (Fig. 8) II) Quando n1 e n2 diferem (Fig. 9) podemos distinguir dois casos: Se n1 é pequeno e n2 maior do que 100 podemos substituir a distribuição de FISHER pela distribuição correspondente de PEARSON. (Fig. 9, parte superior). Se porém n1é maior do que 50 e n2 maior do que 100, ou vice-versa, atingimos uma distribuição modificada de GAUSS com média 1 e erro standard 1: 2n1 n3 n1 + n2 10) As definições matemáticas e os limites de probabilidade para as diferentes distribuições de acaso são dadas em geral na literatura em formas bem diversas, usando-se diferentes sistemas de abcissas. Com referência às distribuições de FISHER, foi usado por este autor, inicialmente, o logarítmo natural do desvio relativo, como abcissa. SNEDECOR (1937) emprega o quadrado dos desvios relativos e BRIEGER (1937) o desvio relativo próprio. As distribuições de PEARSON são empregadas para o X2 teste de PEARSON e FISHER, usando como abcissa os valores de x² = D². n1 Foi exposto o meu ponto de vista, que estas desigualdades trazem desvantagens na aplicação dos testes, pois atribui-se um peso diferente aos números analisados em cada teste, que são somas de desvios quadrados no X2 teste, somas des desvios quadrados divididos pelo grau de liberdade ou varianças no F-teste de SNEDECOR, desvios simples no t-teste de STUDENT, etc.. Uma tábua dos limites de probabilidade de desvios relativos foi publicada por mim (BRIEGER 1937) e uma tábua mais extensa será publicada em breve, contendo os limites unilaterais e bilaterais, tanto para as distribuições de STUDENT como de FISHER. 11) Num capítulo final são discutidas várias complicações que podem surgir na análise. Entre elas quero apenas citar alguns problemas. a) Quando comparamos o desvio de um valor e sua média, deveríamos corretamente empregar também os erros de ambos estes valores: D = u- u o2 +²5 Mas não podemos aqui imediatamente aplicar os limites de qualquer das distribuições do acaso discutidas acima. Em geral a variação de v, medida por o , segue uma distribuição de STUDENT e a variação da média V segue uma distribuição de GAUSS. O problema a ser solucionado é, como reunir os limites destas distribuições num só teste. A solução prática do caso é de considerar a média como uma constante, e aplicar diretamente os limites de probabilidade das dstribuições de STUDENT com o grau de liberdade do erro o. Mas este é apenas uma solução prática. O problema mesmo é, em parte, solucionado pelo teste de BEHRENDS. b) Um outro problema se apresenta no curso dos métodos chamados "analysis of variance" ou decomposição do erro. Supomos que nós queremos comparar uma média parcial va com a média geral v . Mas podemos calcular o erro desta média parcial, por dois processos, ou partindo do erro individual aa ou do erro "dentro" oD que é, como explicado acima, uma média balançada de todos os m erros individuais. O emprego deste último garante um teste mais satisfatório e severo, pois êle é baseado sempre num grau de liberdade bastante elevado. Teremos que aplicar dois testes em seguida: Em primeiro lugar devemos decidir se o erro ou difere do êrro dentro: D = δa/δ0 n1 = np/n2 m. n p Se este teste for significante, uma substituição de oa pelo oD não será admissível. Mas mesmo quando o resultado for insignificante, ainda não temos certeza sobre a identidade dos dois erros, pois pode ser que a diferença entre eles é pequena e os graus de liberdade não são suficientes para permitir o reconhecimento desta diferença como significante. Podemos então substituirmos oa por oD de modo que n2 = m : np: D = V a - v / δa Np n = 1 n2 = np passa para D = v = - v/ δ Np n = 1 n2 = m.n p as como podemos incluir neste último teste uma apreciação das nossas dúvidas sobre o teste anterior oa: oD ? A melhor solução prática me parece fazer uso da determinação de oD, que é provavelmente mais exata do que oa, mas usar os graus de liberdade do teste simples: np = 1 / n2 = np para deixar margem para as nossas dúvidas sobre a igualdade de oa a oD. Estes dois exemplos devem ser suficientes para demonstrar que apesar dos grandes progressos que nós podíamos registrar na teoria da variação do acaso, ainda existem problemas importantes a serem solucionados.
Resumo:
Na aplicação do X2-teste devemos distinguir dois casos : Á) Quando as classes de variáveis são caracterizadas por freqüências esperadas entre p = 0,1 e p = 0,9, podemos aplicar o X2-teste praticamente sem restrição. É talvez aconselhável, mas não absolutamente necessário limitar o teste aos casos nos quais a freqüência esperada é pelo menos igual a 5. e porisso incluimos na Táboa II os limites da variação de dois binômios ( 1/2 + 1/2)n ( 1/4 + 3/4)n para valo r es pequenos de N e nos três limites convencionais de precisão : ,5%, 1% e 0,1%. Neste caso, os valores dos X2 Índividuais têm apenas valor limitado e devemos sempre tomar em consideração principalmente o X2 total. O valor para cada X2 individual pode ser calculado porqualquer das expressôe seguintes: x2 = (f obs - f esp)²> f. esp = ( f obs - pn)2 pn = ( f obs% - p)2.N p% (100 - p%) O delta-teste dá o mesmo resultado estatístico como o X2-teste com duas classes, sendo o valor do X2-total algébricamente igual ao quadrado do valor de delta. Assim pode ser mais fácil às vezes calcular o X2 total como quadrado do desvio relativo da. variação alternativa : x² = ( f obs -pn)² p. (1-p)N = ( f obs - p %)2.N p% (100 - p%) B) Quando há classes com freqüência esperada menor do que p = 0,1, podemos analisar os seus valores individuais de X2, e desprezar o valor X2 para as classes com p maior do que 0,9. O X2-teste, todavia, pode agora ser aplicado apenas, quando a freqüência esperada for pelo menos igual ou maior do que 5 ou melhor ainda, igual ou maior do que 10. Quando a freqüência esperada for menor do que 5, a variação das freqüências observadas segue uma distribuição de Poisson, não sendo possível a sua substituição pela aproximação Gausseana. A táboa I dá os limites da variação da série de Poisson para freqüências esperadas (em números) desde 0,001 até 15. A vantagem do emprego da nova táboa I para a comparação, classe por classe, entre distribuições esperadas e observadas é explicada num exemplo concreto. Por meio desta táboa obtemos informações muito mais detablhadas do que pelo X2-teste devido ao fato que neste último temos que reunir as classes nas extremidades das distribuições até que a freqüência esperada atinja pelo menos o valor 5. Incluimos como complemento uma táboa dos limites X2, pára 1 até 30 graus de liberdade, tirada de um outro trabalho recente (BRIEGER, 1946). Para valores maiores de graus da liberdade, podemos calcular os limites por dois processos: Podemos usar uma solução dada por Fischer: √ 2 X² -√ 2 nf = delta Devem ser aplicados os limites unilaterais da distribuição de Gauss : 5%:1, 64; 1%:2,32; 0,1%:3,09: Uma outra solução podemos obter segundo BRIEGER (1946) calculando o valor: √ x² / nf = teta X nf = teta e procurando os limites nas táboas para limites unilaterais de distribuições de Fischer, com nl = nf(X2); n2 = inf; (BRIEGER, 1946).
Resumo:
O presente trabalho relata a determinação do P2O5 em fertilizantes simples e em misturas, pelos métodos, espectrofotométrico (espectrofotômetro Beckman, modelo B) diferencial do ácido fosfovánadomólíbdico e pelo método volumétrico alcalimétrico (fosfomolibdato de amônio). Relata também a determinação do P2O5 solúvel em solução de ácido cítrico a 2% nos mesmos materiais, pelos métodos espectrofotométrico e colorimétrico (Klett-Summerson) dif erenciais e volumétrico. Os dados obtidos permitem afirmar que os métodos espectrofotométrico e colorimétrico diferenciais são precisos e muito mais simples e rápidos que o método volumétrico. Considerando-se que os métodos espectrofotométrico e colorimétrico são mais simples, e rápidos que o método volumétrico e que êste está mais sujeito à erros devido às operações de precipitação, filtração, lavagem do precipitado, etc, pode-se adotar os dois primeiros em substituição ao método volumétrico de determinação do P2O5 total e solúvel em solução de ácido cítrico a 2%, em fertilizantes fosfatados, simples e em misturas.
Resumo:
O presente trabalho relata os métodos e técnicas de determinação do teor total e do teor solúvel, em diversas soluções, do molibdênio do solo. O extrato do solo para a determinação do teor total de molibdênio foi preparado atacando-se as amostras com água régia, ácido sulfúrico (1 + 1) e ácido perclórico (1 + 1), Em seguida o molibdênio foi determinado pelo método colorimétrico do tiocianato. A extração do teor solúvel de molibdênio do solo, com diversas soluções extratoras, mostrou que talvez uma solução 0,03 N de NH4F em H2SO4 0,1 N, possa ser usada em análises de rotina para extração do molibdênio do solo, em substituição aos extratores e às técnicas mais morosas, utilizadas para se avaliar o teor de molibdenio solúvel.
Resumo:
No presente trabalho foram estudadas a ocorrência das aflatoxinas B e G em 48 amostras de farelo de amendoim provenientes de 8 fábricas de óleo da região Noroeste, bem como uma possível correlação na produção dos dois grupos de aflatoxina. As amostras foram coletadas em quatro épocas representando material proveniente da industrialização de duas safras distintas, a saber: março e maio - safra das "águas" e julho e setembro - safra da "seca". Dos resultados conclui-se que: a) a incidência de aflatoxina foi geral na região, pois todas as amostras estavam tóxicas; b) o nivel de toxidez encontrado foi elevado (valores de 0,1 a 20,0 ppm) sendo bem mais elevado na safra das "águas" - média de 4,34 ppm, contra 1,83 ppm na "seca"; c) foi considerado que apenas 8,33% do material examinado estaria em condições de ser utilizado na alimentação animal; d) houve uma fraca correlação positiva entre as aflatoxinas B e G, não estatisticamente significativa.
Resumo:
No presente trabalho foram estudadas, a ocorrência das aflatoxinas B e G, em 116 amostras de farelo de amendoim provenientes de 17 fábricas de óleo da região Paulista Nova, bem como uma possível correlação na produção de ambas. As amostras foram coletadas em quatro épocas, representando material proveniente da industrialização de duas safras distintas, a saber: março e maio - safra das "águas" e julho e setembro - safra da "seca". Dos resultados concluiu-se que: a) a incidência de aflatoxina foi geral na região, pois todas as amostras estavam tóxicas; b) o nível de toxidez encontrado foi elevado (valores de 0,1 a 20,0 ppm) sendo bem mais elevado na safra das "águas" - média de 5,50 ppm, contra 1,76 na "seca"; c) apenas 10,35% do material examinado estaria em condições de ser utilizado na alimentação animal; d) houve uma correlação fracamente positiva entre a produção das aflatoxinas B e G, estatisticamente significativa.
Resumo:
No presente trabalho foi estudada a ocorrência das aflatoxinas B e G em 44 amostras de farelo de amendoim provenientes de 6 fábricas da região Sorocabana, bem como uma possível correlação na produção de ambas. As amostras foram coletadas em quatro épocas representando material proveniente da industrialização de duas safras distintas a saber: março e maio - safra das "águas" e julho e setembro - safra da "seca". Dos resultados concluiu-se que: a) a incidência de aflatoxina foi geral na região, pois todas as amostras estavam tóxicas; b) o nível de toxidez encontrado foi elevado (valores de 0,1 a 10,0 ppm) sendo mais elevado na safra das "águas" - média de 3,78 ppm, contra 1,74 ppm na "seca"; c) apenas 4,54% do material examinado estaria em condições de ser utilizado para rações animais; d) praticamente não houve correlação entre a produção das aflatoxinas B e G.
Resumo:
No presente trabalho foram estudadas a ocorrência das aflatoxinas B e G em 56 amostras de farelo de amendoim provenientes de 9 fábricas de óleo da região Araraquarense, bem como uma possível correlação na produção dos dois grupos de aflatoxina. As amostras foram coletadas em quatro épocas representando material proveniente da industrialização de duas safras distintas, a saber: março e maio - safra das "águas" e julho e setembro - safra da "seca". Dos resultados concluiu-se que: a) a incidência de aflatoxina foi geral na região, pois todas as amostras estavam tóxicas; b) o nível de toxidez encontrado foi elevado (valores de 0,1 a 20,0 ppm) sendo bem mais elevado na safra das "águas" - média de 4,55 ppm, contra 2,40 ppm na "seca"; c) foi considerado que apenas 16,07% do material examinado estaria em condições de ser utilizado na composição de rações animais; d) observou-se uma elevada produção de aflatoxina G sendo maior que as B em seis amostras; e) houve correlação estatisticamente significativa, entre a produção das aflatoxinas B e G.
Resumo:
Em condições de cultura rasteira, para industrialização, foi cultivado tomateiro (Lycopersicon esculentum Mill.) processando-se amostragens periódicas, em cuja matéria seca se processaram análises químicas para macro e micronutrientes, com exceção de molibdênio. Observou-se que o desenvolvimento do tomateiro se intensifica a partir do florescimento e frutificação, que ocorre após 60 dias de idade, sendo o maior número de frutos formados entre 80 e 90 dias. Foi encontrado, no final do ciclo, uma relação estreita entre número de folhas e número de frutos, de 3 para 1. São apresentados teores dos nutrientes estudados, em vários órgãos da planta, em idades diferentes. Uma cultura (57.000 plantas/ha), extrai as seguintes quantidades: N-67 kg; P-4,76 kg; K-101 kg; Ca-24 kg; Mg-18,5 kg; S-5,3 kg; B-86 g; Cu-37 g; Fe-1353 g; Mn-393 g; Zn-119 g.