299 resultados para teoria quântica da medida
Resumo:
FUNDAMENTO: A medida casual da pressão arterial (PA) pelos profissionais de saúde está sujeita a uma grande variabilidade, sendo necessário buscar novos métodos que possam superar essa limitação. OBJETIVO: Comparar e avaliar a correlação entre os níveis de PA obtidos por meio da automedida da pressão arterial (AMPA) com a medida casual e com a monitorização ambulatorial da pressão arterial (MAPA). MÉTODOS: Avaliamos hipertensos que realizaram as três metodologias de medida da PA com intervalo menor que 30 dias; as médias das pressões foram utilizadas para comparação e correlação. Foram empregados os aparelhos: OMRON 705 CP (medida casual), OMRON HEM 714 (AMPA) e SPACELABS 9002 (MAPA). RESULTADOS: Foram avaliados 32 pacientes, 50,09% mulheres, idade média 59,7 (± 11,2) anos, média do IMC 26,04 (± 3,3) kg/m². Valores médios de pressão sistólica (PAS) e pressão diastólica (PAD) para a AMPA foram de 134 (± 15,71)mmHg e 79,32 (± 12,38) mmHg. Na medida casual as médias da PAS e PAD foram, respectivamente, 140,84 (± 16,15)mmHg e 85 (± 9,68) mmHg. Os valores médios da MAPA na vigília foram 130,47 (± 13,26) mmHg e 79,84 (± 9,82) mmHg para PAS e PAD, respectivamente. Na análise comparativa, a AMPA apresentou valores semelhantes aos da MAPA (p > 0,05) e diferentes da medida casual (p < 0,05). Na análise de correlação a AMPA foi superior à medida casual, considerando a MAPA como o padrão de referência nas medidas tensionais. CONCLUSÃO: A AMPA apresentou melhor comparação com a MAPA do que a medida casual e também se correlacionou melhor com a aquela, especialmente para a pressão diastólica, devendo ser considerada uma alternativa com baixo custo para o acompanhamento do paciente hipertenso.
Resumo:
FUNDAMENTO: O modelo fisiopatológico da insuficiência cardíaca com fração de ejeção normal (ICFEN) está centrado na presença de disfunção diastólica, o que ocasiona mudanças estruturais e funcionais no átrio esquerdo (AE). A medida do tamanho do AE pode ser utilizada como um marcador da presença de ICFEN, sendo um indicador da elevação crônica da pressão de enchimento do VE, cuja mensuração é de fácil obtenção. OBJETIVO: Estimar a acurácia da medida do tamanho do AE, utilizando os valores indexados do diâmetro e do volume do AE para o diagnóstico de ICFEN em pacientes ambulatoriais. MÉTODOS: Estudamos 142 pacientes (67,3 ± 11,4 anos, 75% de mulheres) com suspeita de IC, os quais foram divididos em dois grupos: com ICFEN (n = 35) e sem ICFEN (n = 107). RESULTADOS: A função diastólica, avaliada pelo ecodopplercardiograma, mostrou diferença significativa entre os dois grupos em relação aos parâmetros que avaliaram o relaxamento ventricular (E' 6,9 ± 2,0 cm/s vs. 9,3 ± 2,5 cm/s - p < 0,0001) e a pressão de enchimento do VE (relação E/E' 15,2 ± 6,4 vs. 7,6 ± 2,2 - p < 0,0001). O ponto de coorte do volume do AE indexado (VAE-I) de 35 mL/m² foi o que melhor se correlacionou com o diagnóstico de ICFEN, demonstrando sensibilidade de 83%, especificidade de 83% e acurácia de 83%. Já o ponto de coorte do diâmetro ântero-posterior do AE indexado (DAE-I) de 2,4 cm/m² apresentava sensibilidade de 71%, especificidade de 66% e acurácia de 67%. CONCLUSÃO: Para o diagnóstico de ICFEN em pacientes ambulatoriais, o VAE-I é o método mais acurado em comparação ao DAE-I. Na avaliação ecocardiográfica, a medida do tamanho do AE deveria ser substituída pela medida indexada do volume. (Arq Bras Cardiol. 2011; [online].ahead print, PP.0-0)
Resumo:
FUNDAMENTO: Medir Qualidade de Vida (QV) relacionada à saúde auxilia na avaliação da eficiência de um tratamento e identifica problemas de maior impacto na QV do paciente. No entanto, essas medidas são mais seguras se avaliadas por instrumentos genéricos e específicos conjuntamente, fazendo-se necessário verificar se há compatibilidade entre esses e evitar repetições e contradições entre os domínios. OBJETIVO: Descrever o perfil de qualidade de vida de pacientes hipertensos e avaliar a compatibilidade de um instrumento específico (MINICHAL) e outro genérico (SF-36). MÉTODOS: Cem pacientes hipertensos adultos em tratamento ambulatorial entrevistados. A média da QVRS medida pelo MINICHAL foi de 6,64 (DP 6,04) no estado mental e média de 5,03 (DP 4,11) no estado manifestações somáticas. As médias para o instrumento SF-36 foram por ordem de classificação: limitação por aspectos físicos 47,3 (DP 42,9), vitalidade 57,4 (DP 19,7), limitação por aspectos emocionais 58 (DP 44,7), capacidade funcional 58,7 (DP 27,8), dor 60,4 (DP 26,3), estado geral de saúde 60,7 (DP 22,7), saúde mental 66,8 (DP 22,1) e aspectos sociais 78 (DP 26,1). RESULTADOS: O MINICHAL apresentou correlação significativa (p < 0,001) com o SF-36 em todos os domínios. CONCLUSÃO: O MINICHAL provou ser um instrumento útil na avaliação da QVRS em pacientes hipertensos. (Arq Bras Cardiol. 2012; [online].ahead print, PP.0-0)
Resumo:
1) Chamamos um desvio relativo simples o quociente de um desvio, isto é, de uma diferença entre uma variável e sua média ou outro valor ideal, e o seu erro standard. D= v-v/ δ ou D = v-v2/δ Num desvio composto nós reunimos vários desvios de acordo com a equação: D = + Σ (v - 2)²: o o = o1/ o o Todo desvio relativo é caracterizado por dois graus de liberdade (número de variáveis livres) que indicam de quantas observações foi calculado o numerador (grau de liberdade nf1 ou simplesmente n2) e o denominador (grau de liberdade nf2 ou simplesmente n2). 2) Explicamos em detalhe que a chamada distribuição normal ou de OAUSS é apenas um caso especial que nós encontramos quando o erro standard do dividendo do desvio relativo é calculado de um número bem grande de observações ou determinado por uma fórmula teórica. Para provar este ponto foi demonstrado que a distribuição de GAUSS pode ser derivada da distribuição binomial quando o expoente desta torna-se igual a infinito (Fig.1). 3) Assim torna-se evidente que um estudo detalhado da variação do erro standard é necessário. Mostramos rapidamente que, depois de tentativas preliminares de LEXIS e HELMERT, a solução foi achada pelos estatísticos da escola londrina: KARL PEARSON, o autor anônimo conhecido pelo nome de STUDENT e finalmente R. A. FISHER. 4) Devemos hoje distinguir quatro tipos diferentes de dis- tribuições de acaso dos desvios relativos, em dependência de combinação dos graus de liberdade n1 e n2. Distribuição de: fisher 1 < nf1 < infinito 1 < nf2 < infinito ( formula 9-1) Pearson 1 < nf1 < infinito nf 2= infinito ( formula 3-2) Student nf2 = 1 1 < nf2= infinito ( formula 3-3) Gauss nf1 = 1 nf2= infinito ( formula 3-4) As formas das curvas (Fig. 2) e as fórmulas matemáticas dos quatro tipos de distribuição são amplamente discutidas, bem como os valores das suas constantes e de ordenadas especiais. 5) As distribuições de GAUSS e de STUDENT (Figs. 2 e 5) que correspondem a variação de desvios simples são sempre simétricas e atingem o seu máximo para a abcissa D = O, sendo o valor da ordenada correspondente igual ao valor da constante da distribuição, k1 e k2 respectivamente. 6) As distribuições de PEARSON e FISHER (Fig. 2) correspondentes à variação de desvios compostos, são descontínuas para o valor D = O, existindo sempre duas curvas isoladas, uma à direita e outra à esquerda do valor zero da abcissa. As curvas são assimétricas (Figs. 6 a 9), tornando-se mais e mais simétricas para os valores elevados dos graus de liberdade. 7) A natureza dos limites de probabilidade é discutida. Explicámos porque usam-se em geral os limites bilaterais para as distribuições de STUDENT e GAUSS e os limites unilaterais superiores para as distribuições de PEARSON e FISHER (Figs. 3 e 4). Para o cálculo dos limites deve-se então lembrar que o desvio simples, D = (v - v) : o tem o sinal positivo ou negativo, de modo que é em geral necessário determinar os limites bilaterais em ambos os lados da curva (GAUSS e STUDENT). Os desvios relativos compostos da forma D = O1 : o2 não têm sinal determinado, devendo desprezar-se os sinais. Em geral consideramos apenas o caso o1 ser maior do que o2 e os limites se determinam apenas na extremidade da curva que corresponde a valores maiores do que 1. (Limites unilaterais superiores das distribuições de PEARSON e FISHER). Quando a natureza dos dados indica a possibilidade de aparecerem tanto valores de o(maiores como menores do que o2,devemos usar os limites bilaterais, correspondendo os limites unilaterais de 5%, 1% e 0,1% de probabilidade, correspondendo a limites bilaterais de 10%, 2% e 0,2%. 8) As relações matemáticas das fórmulas das quatro distribuições são amplamente discutidas, como também a sua transformação de uma para outra quando fazemos as necessárias alterações nos graus de liberdade. Estas transformações provam matematicamente que todas as quatro distribuições de acaso formam um conjunto. Foi demonstrado matematicamente que a fórmula das distribuições de FISHER representa o caso geral de variação de acaso de um desvio relativo, se nós extendermos a sua definição desde nfl = 1 até infinito e desde nf2 = 1 até infinito. 9) Existe apenas uma distribuição de GAUSS; podemos calcular uma curva para cada combinação imaginável de graus de liberdade para as outras três distribuições. Porém, é matematicamente evidente que nos aproximamos a distribuições limitantes quando os valores dos graus de liberdade se aproximam ao valor infinito. Partindo de fórmulas com área unidade e usando o erro standard como unidade da abcissa, chegamos às seguintes transformações: a) A distribuição de STUDENT (Fig. 5) passa a distribuição de GAUSS quando o grau de liberdade n2 se aproxima ao valor infinito. Como aproximação ao infinito, suficiente na prática, podemos aceitar valores maiores do que n2 = 30. b) A distribuição de PEARSON (Fig. 6) passa para uma de GAUSS com média zero e erro standard unidade quando nl é igual a 1. Quando de outro lado, nl torna-se muito grande, a distribuição de PEARSON podia ser substituída por uma distribuição modificada de GAUSS, com média igual ale unidade da abcissa igual a 1 : V2 n 1 . Para fins práticos, valores de nl maiores do que 30 são em geral uma aproximação suficiente ao infinito. c) Os limites da distribuição de FISHER são um pouco mais difíceis para definir. I) Em primeiro lugar foram estudadas as distribuições com n1 = n2 = n e verificamos (Figs. 7 e 8) que aproximamo-nos a uma distribuição, transformada de GAUSS com média 1 e erro standard l : Vn, quando o valor cresce até o infinito. Como aproximação satisfatória podemos considerar nl = n2 = 100, ou já nl =r n2 - 50 (Fig. 8) II) Quando n1 e n2 diferem (Fig. 9) podemos distinguir dois casos: Se n1 é pequeno e n2 maior do que 100 podemos substituir a distribuição de FISHER pela distribuição correspondente de PEARSON. (Fig. 9, parte superior). Se porém n1é maior do que 50 e n2 maior do que 100, ou vice-versa, atingimos uma distribuição modificada de GAUSS com média 1 e erro standard 1: 2n1 n3 n1 + n2 10) As definições matemáticas e os limites de probabilidade para as diferentes distribuições de acaso são dadas em geral na literatura em formas bem diversas, usando-se diferentes sistemas de abcissas. Com referência às distribuições de FISHER, foi usado por este autor, inicialmente, o logarítmo natural do desvio relativo, como abcissa. SNEDECOR (1937) emprega o quadrado dos desvios relativos e BRIEGER (1937) o desvio relativo próprio. As distribuições de PEARSON são empregadas para o X2 teste de PEARSON e FISHER, usando como abcissa os valores de x² = D². n1 Foi exposto o meu ponto de vista, que estas desigualdades trazem desvantagens na aplicação dos testes, pois atribui-se um peso diferente aos números analisados em cada teste, que são somas de desvios quadrados no X2 teste, somas des desvios quadrados divididos pelo grau de liberdade ou varianças no F-teste de SNEDECOR, desvios simples no t-teste de STUDENT, etc.. Uma tábua dos limites de probabilidade de desvios relativos foi publicada por mim (BRIEGER 1937) e uma tábua mais extensa será publicada em breve, contendo os limites unilaterais e bilaterais, tanto para as distribuições de STUDENT como de FISHER. 11) Num capítulo final são discutidas várias complicações que podem surgir na análise. Entre elas quero apenas citar alguns problemas. a) Quando comparamos o desvio de um valor e sua média, deveríamos corretamente empregar também os erros de ambos estes valores: D = u- u o2 +²5 Mas não podemos aqui imediatamente aplicar os limites de qualquer das distribuições do acaso discutidas acima. Em geral a variação de v, medida por o , segue uma distribuição de STUDENT e a variação da média V segue uma distribuição de GAUSS. O problema a ser solucionado é, como reunir os limites destas distribuições num só teste. A solução prática do caso é de considerar a média como uma constante, e aplicar diretamente os limites de probabilidade das dstribuições de STUDENT com o grau de liberdade do erro o. Mas este é apenas uma solução prática. O problema mesmo é, em parte, solucionado pelo teste de BEHRENDS. b) Um outro problema se apresenta no curso dos métodos chamados "analysis of variance" ou decomposição do erro. Supomos que nós queremos comparar uma média parcial va com a média geral v . Mas podemos calcular o erro desta média parcial, por dois processos, ou partindo do erro individual aa ou do erro "dentro" oD que é, como explicado acima, uma média balançada de todos os m erros individuais. O emprego deste último garante um teste mais satisfatório e severo, pois êle é baseado sempre num grau de liberdade bastante elevado. Teremos que aplicar dois testes em seguida: Em primeiro lugar devemos decidir se o erro ou difere do êrro dentro: D = δa/δ0 n1 = np/n2 m. n p Se este teste for significante, uma substituição de oa pelo oD não será admissível. Mas mesmo quando o resultado for insignificante, ainda não temos certeza sobre a identidade dos dois erros, pois pode ser que a diferença entre eles é pequena e os graus de liberdade não são suficientes para permitir o reconhecimento desta diferença como significante. Podemos então substituirmos oa por oD de modo que n2 = m : np: D = V a - v / δa Np n = 1 n2 = np passa para D = v = - v/ δ Np n = 1 n2 = m.n p as como podemos incluir neste último teste uma apreciação das nossas dúvidas sobre o teste anterior oa: oD ? A melhor solução prática me parece fazer uso da determinação de oD, que é provavelmente mais exata do que oa, mas usar os graus de liberdade do teste simples: np = 1 / n2 = np para deixar margem para as nossas dúvidas sobre a igualdade de oa a oD. Estes dois exemplos devem ser suficientes para demonstrar que apesar dos grandes progressos que nós podíamos registrar na teoria da variação do acaso, ainda existem problemas importantes a serem solucionados.
Resumo:
1) O equilíbrio em populações, inicialmente compostas de vários genotipos depende essencialmente de três fatores: a modalidade de reprodução e a relativa viabilidade e fertilidade dos genotipos, e as freqüências iniciais. 2) Temos que distinguir a) reprodução por cruzamento livre quando qualquer indivíduo da população pode ser cruzado com qualquer outro; b) reprodução por autofecundação, quando cada indivíduo é reproduzido por uma autofecundação; c) finalmente a reprodução mista, isto é, os casos intermediários onde os indivíduos são em parte cruzados, em parte autofecundados. 3) Populações heterozigotas para um par de gens e sem seleção. Em populações com reprodução cruzada se estabelece na primeira geração um equilíbrio entre os três genotipos, segundo a chamada regra de Hardy- Weinberg. Inicial : AA/u + Aa/v aa/u = 1 Equilibirio (u + v/2)² + u + v/2 ( w + v/2) + (w + v/2)² = p2 + 2 p o. q o. + q²o = 1 Em populações com autofecundação o equilíbrio será atingido quando estiverem presentes apenas os dois homozigotos, e uma fórmula é dada que permite calcular quantas gerações são necessárias para atingir aproximadamente este resultado. Finalmente, em populações com reprodução mista, obtemos um equilíbrio com valores intermediários, conforme Quadro 1. Frequência Genotipo Inicial mº Geração Final AA u u + 2m-1v / 2m+1 u + 1/2v Aa v 2/ 2m+2 v - aa w w + 2m - 1/ 2m + 1 v w + 1/2 v 4) Os índices de sobrevivencia. Para poder chegar a fórmulas matemáticas simples, é necessário introduzir índices de sobrevivência para medir a viabilidade e fertilidade dos homozigotos, em relação à sobrevivência dos heterozigotos. Designamos a sobrevivência absoluta de cada um dos três genotipos com x, y e z, e teremos então: x [ A A] : y [ Aa] : z [ aa] = x/y [ A A] : [ Aa] : z/ y [aa] = R A [ AA] : 1 [Aa] : Ra [aa] É evidente que os índices R poderão ter qualquer valor desde zero, quando haverá uma eliminação completa dos homozigotos, até infinito quando os heterozigotos serão completamente eliminados. Os termos (1 -K) de Haldane e (1 -S) ou W de Wright não têm esta propriedade matemática, podendo variar apenas entre zero e um. É ainda necessário distinguir índices parciais, de acordo com a marcha da eliminação nas diferentes fases da ontogenia dos indivíduos. Teremos que distinguir em primeiro lugar entre a eliminação durante a fase vegetativa e a eliminação na fase reprodutiva. Estas duas componentes são ligadas pela relação matemática. R - RV . RR 5) Populações com reprodução cruzada e eliminação. - Considerações gerais. a) O equilibrio final, independente da freqüência inicial dos genes e dos genotipos para valores da sobrevivência diferentes de um, é atingido quando os gens e os genotipos estão presentes nas proporções seguintes: (Quadro 2). po / qo = 1- ro / 1-Ra [AA] (1 - Ro)² . Rav [ Aa] = 2(1 - Ra) ( 1 - Ra) [a a} = ( 1 - Ra)² . RaA b) Fórmulas foram dadas que permitem calcular as freqüências dos genotipos em qualquer geração das populações. Não foi tentado obter fórmulas gerais, por processos de integração, pois trata-se de um processo descontínuo, com saltos de uma e outra geração, e de duração curta. 6) Populações com reprodução cruzada e eliminação. Podemos distinguir os seguintes casos: a) Heterosis - (Quadro 3 e Fig. 1). Ra < 1; Ra < 1 Inicial : Final : p (A)/q(a) -> 1-ra/1-ra = positivo/zero = infinito Os dois gens e assim os três genotipos zigóticos permanecem na população. Quando as freqüências iniciais forem maiores do que as do equilíbrio elas serão diminuidas, e quando forem menores, serão aumentadas. b) Gens recessivos letais ou semiletais. (Quadro 1 e Fig. 2). O equilíbrio será atingido quando o gen, que causa a redução da viabilidade dos homozigotos, fôr eliminado da população. . / c) Gens parcialmente dominantes semiletais. (Quadro 5 e Fig. 3). Rª ; Oz Ra < 1 Inicial : Equilibrio biológico Equilíbrio Matemático pa(A)/q(a) -> positivo /zero -> 1- Rq/ 1-Ra = positivo/negativo d) Genes incompatíveis. Ra > 1 ; Ra > 1; Ra > Ra Equílibrio/biológico p (A)/ q(a) -> positivo/zero Equilibrio matemático -> positivo/ zero -> zero/negativo -> 1-Ra/1 - Ra = negativo/negativo Nestes dois casos devemos distinguir entre o significado matemático e biológico. A marcha da eliminação não pode chegar até o equilíbrio matemático quando um dos gens alcança antes a freqüência zero, isto é, desaparece. Nos três casos teremos sempre uma eliminação relativamente rápida de um dos gens «e com isso do homozigoto respectivo e dos heterozigotòs. e) Foram discutidos mais dois casos especiais: eliminação reprodutiva diferencial dos dois valores do sexo feminino e masculino, -e gens para competição gametofítica. (Quadros 6 e 7 e Figs. 4 a 6). 7) População com autofecundação e seleção. O equilíbrio será atingido quando os genotipos estiverem presentes nas seguintes proporções: (Quadro 8); [AA] ( 0,5 - Ra). R AV [Aa] = 4. ( 0,5 - Ra) . (0.5 -R A) [aa] ( 0,5 - R A) . Rav Também foram dadas fórmulas que permitem calcular as proporções genotípicas em cada geração e a marcha geral da eliminação dos genotipos. 8)Casos especiais. Podemos notar que o termo (0,5 -R) nas fórmulas para as populações autofecundadas ocupa mais ou menos a mesma importância do que o termo (1-R) nas fórmulas para as populações cruzadas. a) Heterosis. (Quadro 9 e Fig. 7). Quando RA e Ra têm valores entre 0 e 0,5, obtemos o seguinte resultado: No equilíbrio ambos os gens estão presentes e os três heterozigotos são mais freqüentes do que os homozigotos. b) Em todos os demais casos, quando RA e Ra forem iguais ou maiores do que 0,5, o equilíbrio é atingido quando estão representados na população apenas os homozigotos mais viáveis e férteis. (Quadro 10). 9) Foram discutidos os efeitos de alterações dos valores da sobrevivência (Fig. 9), do modo de reprodução (Fig. 10) e das freqüências iniciais dos gens (Fig. 8). 10) Algumas aplicações à genética aplicada. Depois de uma discussão mais geral, dois problemas principais foram tratados: a) A homogeneização: Ficou demonstrado que a reprodução por cruzamento livre representa um mecanismo muito ineficiente, e que se deve empregar sempre ou a autofecundação ou pelo menos uma reprodução mista com a maior freqüência possível de acasalamentos consanguíneos. Fórmulas e dados (Quadro 11 e 12), permitem a determinação do número de gerações necessárias para obter um grau razoável de homozigotia- b) Heterosis. Existem dois processos, para a obtenção de um alto grau de heterozigotia e com isso de heterosis: a) O método clássico do "inbreeding and outbreeding". b) O método novo das populações balançadas, baseado na combinação de gens que quando homozigotos dão urna menor sobrevivência do que quando heterozigotos. 11) Algumas considerações sobre a teoria de evolução: a) Heterosis. Os gens com efeito "heterótico", isto é, nos casos onde os heterozigotos s mais viáveis e férteis, do que os homozigotos, oferecem um mecanismo especial de evolução, pois nestes casos a freqüência dos gens, apesar de seu efeito negativo na fase homozigota, tem a sua freqüência aumentada até que seja atingido o valor do equilíbrio. b) Gens letais e semiletais recessivos. Foi demonstrado que estes gens devem ser eliminados automáticamente das populações. Porém, ao contrário do esperado, não s raros por exemplo em milho e em Drosophila, gens que até hoje foram classificados nesta categoria. Assim, um estudo detalhado torna-se necessário para resolver se os heterozigotos em muitos destes casos não serão de maior sobrevivência do que ambos os homozigotos, isto é, que se trata realmente de genes heteróticos. c) Gens semiletais parcialmente dominantes. Estes gens serão sempre eliminados nas populações, e de fato eles são encontrados apenas raramente. d) Gens incompatíveis. São também geralmente eliminados das populações. Apenas em casos especiais eles podem ter importância na evolução, representando um mecanismo de isolamento.
Resumo:
A aradura é a principal das operações agrícolas para o desenvolvimento das diversas culturas. A sua importância é conhecida desde as mais remotas eras. Assim, os romanos já tinham sua teoria sobre aradura. Desta forma o arado, a mais antiga das máquinas agrícolas, foi sempre motivo de atenção dos agricultores, fabricantes e técnicos em mecânica agrícola. A sua evolução foi bastante grande. O estudo do arado sob o ponto de vista agrícola e econômico, para exata aplicação da máquina, nas diversas condições de solo, é de máximo interêsse para a mecânica agrícola. Assim sendo, para orientar a correta aplicação do arado, o que constitui a presente tese, foi experimentado num solo arenoso, de características mecânicas (areia total 75,7%, argila 13,5 e lôdo 10,8%) a diversas profundidades de aração, (5, 10, 15, 20, 25, 30cm), plantando nos mesmos, milho para verificar o efeito na produção. Num terceiro ano de experiência, foi realizada uma experiência a mais, isto é, uma subsolagem a 40 cm. Foi plantado milho nos canteiros assim trabalhados, e que eram repetidos em número de 4, porque o milho é uma cultura muito frequente e de fácil contrôle. As experiências com as diversas profundidades, demostraram que nestas condições de solo, à medida que aumenta a profundidade, aumenta também a produção. Do exposto, conclui-se pela experimentação que para esse solo é aconselhável: fazer o arado trabalhar a maior profundidade em que comumente é empregado até o limite de 25 cm, que foi o valor máximo examinado.
Resumo:
Através do estudo matemático do problema, o autor demonstra que o uso do valor médio do diâmetro (GOMES, 1957), obtido através da média aritmética dos diâmetros das árvores, não convém para o cálculo da área basal de um povoamento florestal, pois não satisfaz aos postulados da Teoria da Medida.
Resumo:
Foi feito um ensaio em vasos com três solos arenosos do município de Piracicaba a fim de se avaliar o período de decomposição mais ativa de restos de cultura de milho e início de estabilização desse processo e testar a determinação do teor de C do solo e da relação C/N como parâmetros de avaliação da decomposição. Utilizou-se o delineamento experimental inteiramente casualizado, com e sem adição do material orgânico e com adição de doses crescentes de nitrogênio. Concluiu-se o seguinte: a) Tanto o teor de C do solo como a relação C/N foram eficientes para alcançar o objetivo visado, devendo-se, entretanto, para fins práticos, utilizar o primeiro processo por ser de execução mais fácil e mais rápida, b) A decomposição tendeu a se estabilizar aos 45 dias, aproximadamente, após o início da incubação.
Resumo:
Estudos relativos às atividades da Controladoria que se inter-relacionam com outras ciências, como Psicologia e Sociologia, favorecem conhecimentos mais holísticos sobre essa área organizacional. Assim, neste estudo objetiva-se verificar os impactos da implantação das normas internacionais de contabilidade na controladoria à luz da Teoria da Estruturação. O pressuposto é que o processo de implantação das normas internacionais vem contribuir para a produção e a reprodução da ordem social da área organizacional controladoria. A Teoria da Estruturação de Giddens (1979; 1996; 2003) sustenta esta pesquisa exploratória, com abordagem qualitativa, realizada por meio de um estudo de caso em uma indústria têxtil. Nela, analisaram-se impactos da implantação das normas internacionais de contabilidade na controladoria, no período de 2008 a 2010, que abrange a fase de implantação dos CPCs na empresa, emitidos pelo Comitê de Pronunciamentos Contábeis (CPC). A coleta de dados deu-se por meio de observação, análise documental, entrevistas individuais e grupo focal. A análise das entrevistas individuais e do grupo focal foi realizada com o auxílio do software Atlas.ti. Os resultados apontaram que o processo de implantação das normas internacionais de contabilidade impactou a estrutura da área organizacional controladoria, por meio de novas atividades, discussões e mudanças nos processos e controles, além da interação dos agentes, por meio de comunicação e capacidades, permitindo a produção e a reprodução dessa área. Conclui-se que a dualidade da estrutura preconizada por Giddens (1979; 1996; 2003) ocorreu na empresa no período analisado, pois a estrutura impactou a interação e vice-versa.
Resumo:
A teoria da Visão Baseada em Recursos (VBR) tem se destacado como uma das mais importantes correntes teóricas da estratégia. O uso da teoria dos recursos mostra-se promissor para a análise das propriedades rurais, permitindo avançar no conhecimento do potencial a ser explorado em torno dos recursos internos. No presente estudo, contribui-se com um levantamento da literatura sobre os principais recursos e/ou fatores-chave determinantes para o desempenho de propriedades rurais por meio da análise de trabalhos que utilizaram a teoria da VBR como base teórica. Com esse levantamento, pretende-se verificar quais recursos foram considerados estratégicos pela literatura da área. A metodologia utilizada foi de revisão sistemática. Os resultados indicaram que o uso da teoria em estudos de empreendimentos agropecuários ainda é incipiente. Foram levantados 14 artigos em fazendas em geral e, dentre esses, três estudos em fazendas produtoras de leite que mostram resultados consistentes quanto ao impacto dos recursos sobre o desempenho. Recursos humanos e organizacionais foram os mais citados como estratégicos e fundamentais para o desempenho. Os recursos físicos foram citados mais vezes em artigos que analisaram o meio rural se comparado à literatura geral do uso da VBR, talvez pela maior dependência de aspectos naturais no desempenho das fazendas em relação aos outros setores da economia. Contudo, devido ao pequeno número de trabalhos encontrados e à diversidade de abordagens em torno da teoria, não é possível realizar inferências, somente concluir que existe um gap de conhecimento nessa área que deve ser suprido por meio de novas e amplas pesquisas.
Resumo:
Uma das tarefas políticas mais importantes dos estudos críticos na área de organizações é explorar os processos de organização da resistência. No entanto, esse desafio é dificultado devido à noção restrita de organização predominante no campo dos estudos organizacionais. Nesse sentido, a Teoria Política do Discurso (TPD) tem se apresentado como uma alternativa capaz de auxiliar na compreensão dos processos de resistência vivenciados por organizações contra hegemônicas, trazendo à tona práticas alternativas de organizar. Neste trabalho, o objetivo é, a partir da teoria mencionada, analisar práticas organizacionais desenvolvidas pelo Circuito Fora do Eixo para a articulação de diferentes iniciativas em prol de objetivos comuns. No estudo de caso empreendido, evidencia-se que categorias fornecidas pela TPD, como articulação e lógica de equivalência, apresentam elementos importantes para a análise e a compreensão dos processos de organização da resistência.
Resumo:
RESUMO Objetivou-se, neste artigo, disponibilizar uma medida quantitativa de condições favoráveis e desfavoráveis à criatividade no ambiente de trabalho, concebida como um processo de produção de ideias novas e de valor para determinado contexto. Decidiu-se, inicialmente, aprimorar um instrumento já validado com fins semelhantes. A aplicação de survey para validação da nova medida, composta de 63 itens, foi feita em uma amostra de 409 analistas de uma empresa brasileira de pesquisa. Foram realizadas as análises semântica e dos juízes, com posterior análise fatorial e de confiabilidade dos itens. Obtiveram-se duas escalas distintas: uma que continha seis fatores que manifestam condições facilitadoras e três que retratam barreiras à expressão da criatividade no ambiente de trabalho. O instrumento foi denominado de Indicadores de Condições para Criar no Ambiente de Trabalho (ICCAT) e mostra-se como uma medida robusta e atualizada, com a redução de 97 para 60 itens, com cargas fatoriais elevadas, bem como índices de confiabilidade mais altos que a medida anterior. O índice de variância total explicada foi superior a 50%. Sugerem-se novas aplicações, a fim de verificar se a estrutura fatorial se confirma. Destaca-se a relevância de se disponibilizar tal medida para aplicação em pesquisas futuras, bem como para diagnósticos organizacionais.