204 resultados para Teoria dos erros


Relevância:

20.00% 20.00%

Publicador:

Resumo:

São discutidas as contribuições trazidas pela abordagem histórica ao debate epistemológico da epidemiologia. Buscando-se na teoria do agir comunicativo, de Habermas, e na filosofia hermenêutica de Gadamer, enriquecimentos para uma compreensão práxica das ciências, procura-se explorar o sentido em que a perspectiva histórica redimensiona as questões epistemológicas básicas da epidemiologia. A argumentação aponta para a maior fecundidade desta aproximação, em contraste com as aproximações estritamente lógico-formais, na apreensão dos impasses teóricos com que se defronta a epidemiologia na busca de seus axiomas científicos. Destaca-se, em particular, o potencial emancipador do resgate da historicidade no âmbito da própria atividade epistemológica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

São abordados, os fundamentos científicos e a ética da utilização das práticas de medicina alternativa em voga no Brasil. Ressalta-se que, em geral, o termo alternativo não é definido e que pode se referir aos princípios básicos ou aos métodos de diagnóstico e tratamento. Sugere-se que a escolha individual de um sistema terapêutico é mais influenciada por fatores culturais, pela tradição familiar e pela moda, do que pela análise racional dos seus fundamentos. Estabelece-se que o que distingue realmente os diferentes sistemas são seus princípios e não suas práticas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO:Os erros de medicação são atualmente um problema mundial de saúde pública, sendo os mais sérios os de prescrição. O objetivo do estudo foi analisar a prática da prescrição de medicamentos de alto risco e sua relação com a prevalência de erros de medicação em ambiente hospitalar. MÉTODOS:Estudo transversal retrospectivo abrangendo 4.026 prescrições com medicamentos potencialmente perigosos. Durante 30 dias de 2001, foram analisadas todas as prescrições recebidas na farmácia de um hospital de referência de Minas Gerais. As prescrições foram analisadas quanto a: legibilidade, nome do paciente, tipo de prescrição, data, caligrafia ou grafia, identificação do prescritor, análise do medicamento e uso de abreviaturas. Os erros de prescrição foram classificados como de redação ou decisão, sendo avaliada a influência do tipo de prescrição na ocorrência de erros. RESULTADOS: Houve predomínio da prescrição escrita à mão (45,7%). Em 47,0% das prescrições escritas à mão, mistas e pré-digitadas ocorreram erros no nome do paciente, em 33,7% houve dificuldades na identificação do prescritor e 19,3% estavam pouco legíveis ou ilegíveis. No total de 7.148 medicamentos de alto risco prescritos, foram observados 3.177 erros, sendo mais freqüente a omissão de informação (86,5%). Os erros se concentraram principalmente nos medicamentos heparina, fentanil e midazolam; e os setores de tratamento intensivo e a neurologia apresentaram maior número de erros por prescrição. Observou-se o uso intensivo e sem padronização de abreviaturas. Quando computados todos os tipos de erros, verificou-se 3,3 por prescrição. A prescrição pré-digitada apresentou menor chance de erros do que as mistas ou escritas à mão. CONCLUSÕES: Os resultados sugerem a necessidade da padronização no processo de prescrição e a eliminação daquelas feitas à mão. O uso de prescrições pré-digitadas ou editadas poderá diminuir os erros relacionados aos medicamentos potencialmente perigosos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O artigo problematiza certos usos de métodos qualitativos no campo da saúde coletiva que se caracterizam pela ausência de referências teóricas e escamoteiam a racionalidade presente na sua exclusiva utilização como técnica. A proliferação e aceitação desses estudos possivelmente ocorrem pela força da racionalidade instrumental com que têm sido conduzidos. Freqüentemente vistos de maneira cuidadosa, os resultados nem sempre são secundados pela apresentação criteriosa do quadro teórico que fundamenta a interpretação. O uso de técnicas "validadas", os discursos construídos e as narrativas das ações dos "sujeitos" pesquisados não comprometem o pesquisador na relação, já que prescindem da contextualização histórico-espacial e do marco teórico-metodológico que imprimem sentido histórico e social aos estudos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Analisar instrumento de medição da adesão ao tratamento da hipertensão por meio da "Teoria da Resposta ao Item".MÉTODOS: Estudo analítico com 406 hipertensos com complicações associadas, atendidos na atenção básica em Fortaleza, CE, 2011, pela "Teoria da Resposta ao Item". As etapas de execução foram: teste de dimensionalidade, calibração dos itens; tratamento dos dados e construção da escala, analisadas com base no modelo de resposta gradual. Estudo da dimensionalidade do instrumento foi feito pela análise da matriz de correlação policórica e análise fatorial de informação completa. Utilizou-se o software Multilog para calibração dos itens e estimação dos escores.RESULTADOS: Os itens referentes ao tratamento medicamentoso foram os mais diretamente relacionados à adesão, enquanto aqueles referentes ao tratamento não medicamentoso precisam ser reformulados, pois possuíram menor quantidade de informação psicométrica e baixa discriminação. A independência dos itens, o reduzido número de níveis da escala e as baixas variâncias explicadas no ajuste dos modelos mostraram as principais fragilidades do instrumento analisado. A "Teoria da Resposta ao Item" mostrou-se relevante para análise, pois avaliou o respondente quanto à adesão ao tratamento da hipertensão, ao nível de dificuldade dos itens e à sua capacidade de discriminação entre indivíduos com diferentes níveis de adesão, o que gerou maior quantidade de informação.CONCLUSÕES: O instrumento analisado é limitado para medir a adesão ao tratamento da hipertensão, mediante análise pela "Teoria da Resposta ao Item", e necessita de ajustes. A adequada formulação dos itens é importante para medir precisamente o traço latente desejado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVOS: Procura-se analisar as atuais evidências empíricas e teóricas sobre o modo de operar nas intervenções comportamentais dialéticas. Procedeu-se igualmente à análise da eficácia dessa terapia no tratamento da bulimia nervosa e no transtorno da compulsão alimentar periódica. MÉTODO: Realizou-se uma revisão agregativa da literatura, recorrendo às palavras-chave "dialectical behavior therapy", "bulimia nervosa" e "binge eating disorder" nas bases de dados PsycInfo e MedLine e em livros da especialidade, sob o critério da atualidade e premência das publicações levantadas. RESULTADOS: A terapia comportamental dialética, inicialmente desenhada para o transtorno de personalidade borderline, tem-se estendido a outros transtornos do eixo I. Sua aplicação às perturbações alimentares sustentase num paradigma dialético com o recurso das estratégias comportamentais e cognitivas. Esse modelo permite aos pacientes uma regulação mais efetiva dos estados afetivos negativos, reduzindo a probabilidade da ocorrência de comportamentos bulímicos e de compulsão alimentar periódica. CONCLUSÃO: Embora escasseiem estudos sobre a sua eficácia, os resultados existentes parecem comprovar a eficácia da terapia comportamental dialética nas populações descritas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUMO Objetivo A satisfação com a vida é um julgamento cognitivo de alguns domínios específicos na vida e depende de uma comparação entre as circunstâncias de vida do indivíduo e um padrão por ele estabelecido. O objetivo deste estudo foi construir uma escala de satisfação com a vida por meio da Teoria da Resposta ao Item (TRI). Métodos Para a criação da escala, foi utilizado o questionário “Estilo de Vida e Hábitos de Lazer de Trabalhadores da Indústria” e a Teoria da Resposta ao Item com base no modelo de resposta gradual proposto por Samejima. Participaram do estudo 47.477 trabalhadores brasileiros da indústria. Resultados A escala contou com sete itens do bloco de perguntas “indicadores de saúde e comportamentos preventivos”, com assuntos relacionados ao estado de saúde, qualidade de sono, nível de estresse, sentimento de tristeza ou depressão e percepção de vida no lar, no trabalho e no lazer. Conclusão São poucos os estudos que tiveram seu foco direcionado à satisfação com a vida no Brasil, e aqueles que de alguma forma o abordaram incluíram somente uma questão específica sobre felicidade ou satisfação de vida, principalmente em estudos sobre o bem-estar subjetivo. Os resultados mostraram que a TRI foi eficiente para criar a escala, medindo principalmente aqueles indivíduos com valores intermediários de satisfação com a vida.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

1) Chamamos um desvio relativo simples o quociente de um desvio, isto é, de uma diferença entre uma variável e sua média ou outro valor ideal, e o seu erro standard. D= v-v/ δ ou D = v-v2/δ Num desvio composto nós reunimos vários desvios de acordo com a equação: D = + Σ (v - 2)²: o o = o1/ o o Todo desvio relativo é caracterizado por dois graus de liberdade (número de variáveis livres) que indicam de quantas observações foi calculado o numerador (grau de liberdade nf1 ou simplesmente n2) e o denominador (grau de liberdade nf2 ou simplesmente n2). 2) Explicamos em detalhe que a chamada distribuição normal ou de OAUSS é apenas um caso especial que nós encontramos quando o erro standard do dividendo do desvio relativo é calculado de um número bem grande de observações ou determinado por uma fórmula teórica. Para provar este ponto foi demonstrado que a distribuição de GAUSS pode ser derivada da distribuição binomial quando o expoente desta torna-se igual a infinito (Fig.1). 3) Assim torna-se evidente que um estudo detalhado da variação do erro standard é necessário. Mostramos rapidamente que, depois de tentativas preliminares de LEXIS e HELMERT, a solução foi achada pelos estatísticos da escola londrina: KARL PEARSON, o autor anônimo conhecido pelo nome de STUDENT e finalmente R. A. FISHER. 4) Devemos hoje distinguir quatro tipos diferentes de dis- tribuições de acaso dos desvios relativos, em dependência de combinação dos graus de liberdade n1 e n2. Distribuição de: fisher 1 < nf1 < infinito 1 < nf2 < infinito ( formula 9-1) Pearson 1 < nf1 < infinito nf 2= infinito ( formula 3-2) Student nf2 = 1 1 < nf2= infinito ( formula 3-3) Gauss nf1 = 1 nf2= infinito ( formula 3-4) As formas das curvas (Fig. 2) e as fórmulas matemáticas dos quatro tipos de distribuição são amplamente discutidas, bem como os valores das suas constantes e de ordenadas especiais. 5) As distribuições de GAUSS e de STUDENT (Figs. 2 e 5) que correspondem a variação de desvios simples são sempre simétricas e atingem o seu máximo para a abcissa D = O, sendo o valor da ordenada correspondente igual ao valor da constante da distribuição, k1 e k2 respectivamente. 6) As distribuições de PEARSON e FISHER (Fig. 2) correspondentes à variação de desvios compostos, são descontínuas para o valor D = O, existindo sempre duas curvas isoladas, uma à direita e outra à esquerda do valor zero da abcissa. As curvas são assimétricas (Figs. 6 a 9), tornando-se mais e mais simétricas para os valores elevados dos graus de liberdade. 7) A natureza dos limites de probabilidade é discutida. Explicámos porque usam-se em geral os limites bilaterais para as distribuições de STUDENT e GAUSS e os limites unilaterais superiores para as distribuições de PEARSON e FISHER (Figs. 3 e 4). Para o cálculo dos limites deve-se então lembrar que o desvio simples, D = (v - v) : o tem o sinal positivo ou negativo, de modo que é em geral necessário determinar os limites bilaterais em ambos os lados da curva (GAUSS e STUDENT). Os desvios relativos compostos da forma D = O1 : o2 não têm sinal determinado, devendo desprezar-se os sinais. Em geral consideramos apenas o caso o1 ser maior do que o2 e os limites se determinam apenas na extremidade da curva que corresponde a valores maiores do que 1. (Limites unilaterais superiores das distribuições de PEARSON e FISHER). Quando a natureza dos dados indica a possibilidade de aparecerem tanto valores de o(maiores como menores do que o2,devemos usar os limites bilaterais, correspondendo os limites unilaterais de 5%, 1% e 0,1% de probabilidade, correspondendo a limites bilaterais de 10%, 2% e 0,2%. 8) As relações matemáticas das fórmulas das quatro distribuições são amplamente discutidas, como também a sua transformação de uma para outra quando fazemos as necessárias alterações nos graus de liberdade. Estas transformações provam matematicamente que todas as quatro distribuições de acaso formam um conjunto. Foi demonstrado matematicamente que a fórmula das distribuições de FISHER representa o caso geral de variação de acaso de um desvio relativo, se nós extendermos a sua definição desde nfl = 1 até infinito e desde nf2 = 1 até infinito. 9) Existe apenas uma distribuição de GAUSS; podemos calcular uma curva para cada combinação imaginável de graus de liberdade para as outras três distribuições. Porém, é matematicamente evidente que nos aproximamos a distribuições limitantes quando os valores dos graus de liberdade se aproximam ao valor infinito. Partindo de fórmulas com área unidade e usando o erro standard como unidade da abcissa, chegamos às seguintes transformações: a) A distribuição de STUDENT (Fig. 5) passa a distribuição de GAUSS quando o grau de liberdade n2 se aproxima ao valor infinito. Como aproximação ao infinito, suficiente na prática, podemos aceitar valores maiores do que n2 = 30. b) A distribuição de PEARSON (Fig. 6) passa para uma de GAUSS com média zero e erro standard unidade quando nl é igual a 1. Quando de outro lado, nl torna-se muito grande, a distribuição de PEARSON podia ser substituída por uma distribuição modificada de GAUSS, com média igual ale unidade da abcissa igual a 1 : V2 n 1 . Para fins práticos, valores de nl maiores do que 30 são em geral uma aproximação suficiente ao infinito. c) Os limites da distribuição de FISHER são um pouco mais difíceis para definir. I) Em primeiro lugar foram estudadas as distribuições com n1 = n2 = n e verificamos (Figs. 7 e 8) que aproximamo-nos a uma distribuição, transformada de GAUSS com média 1 e erro standard l : Vn, quando o valor cresce até o infinito. Como aproximação satisfatória podemos considerar nl = n2 = 100, ou já nl =r n2 - 50 (Fig. 8) II) Quando n1 e n2 diferem (Fig. 9) podemos distinguir dois casos: Se n1 é pequeno e n2 maior do que 100 podemos substituir a distribuição de FISHER pela distribuição correspondente de PEARSON. (Fig. 9, parte superior). Se porém n1é maior do que 50 e n2 maior do que 100, ou vice-versa, atingimos uma distribuição modificada de GAUSS com média 1 e erro standard 1: 2n1 n3 n1 + n2 10) As definições matemáticas e os limites de probabilidade para as diferentes distribuições de acaso são dadas em geral na literatura em formas bem diversas, usando-se diferentes sistemas de abcissas. Com referência às distribuições de FISHER, foi usado por este autor, inicialmente, o logarítmo natural do desvio relativo, como abcissa. SNEDECOR (1937) emprega o quadrado dos desvios relativos e BRIEGER (1937) o desvio relativo próprio. As distribuições de PEARSON são empregadas para o X2 teste de PEARSON e FISHER, usando como abcissa os valores de x² = D². n1 Foi exposto o meu ponto de vista, que estas desigualdades trazem desvantagens na aplicação dos testes, pois atribui-se um peso diferente aos números analisados em cada teste, que são somas de desvios quadrados no X2 teste, somas des desvios quadrados divididos pelo grau de liberdade ou varianças no F-teste de SNEDECOR, desvios simples no t-teste de STUDENT, etc.. Uma tábua dos limites de probabilidade de desvios relativos foi publicada por mim (BRIEGER 1937) e uma tábua mais extensa será publicada em breve, contendo os limites unilaterais e bilaterais, tanto para as distribuições de STUDENT como de FISHER. 11) Num capítulo final são discutidas várias complicações que podem surgir na análise. Entre elas quero apenas citar alguns problemas. a) Quando comparamos o desvio de um valor e sua média, deveríamos corretamente empregar também os erros de ambos estes valores: D = u- u o2 +²5 Mas não podemos aqui imediatamente aplicar os limites de qualquer das distribuições do acaso discutidas acima. Em geral a variação de v, medida por o , segue uma distribuição de STUDENT e a variação da média V segue uma distribuição de GAUSS. O problema a ser solucionado é, como reunir os limites destas distribuições num só teste. A solução prática do caso é de considerar a média como uma constante, e aplicar diretamente os limites de probabilidade das dstribuições de STUDENT com o grau de liberdade do erro o. Mas este é apenas uma solução prática. O problema mesmo é, em parte, solucionado pelo teste de BEHRENDS. b) Um outro problema se apresenta no curso dos métodos chamados "analysis of variance" ou decomposição do erro. Supomos que nós queremos comparar uma média parcial va com a média geral v . Mas podemos calcular o erro desta média parcial, por dois processos, ou partindo do erro individual aa ou do erro "dentro" oD que é, como explicado acima, uma média balançada de todos os m erros individuais. O emprego deste último garante um teste mais satisfatório e severo, pois êle é baseado sempre num grau de liberdade bastante elevado. Teremos que aplicar dois testes em seguida: Em primeiro lugar devemos decidir se o erro ou difere do êrro dentro: D = δa/δ0 n1 = np/n2 m. n p Se este teste for significante, uma substituição de oa pelo oD não será admissível. Mas mesmo quando o resultado for insignificante, ainda não temos certeza sobre a identidade dos dois erros, pois pode ser que a diferença entre eles é pequena e os graus de liberdade não são suficientes para permitir o reconhecimento desta diferença como significante. Podemos então substituirmos oa por oD de modo que n2 = m : np: D = V a - v / δa Np n = 1 n2 = np passa para D = v = - v/ δ Np n = 1 n2 = m.n p as como podemos incluir neste último teste uma apreciação das nossas dúvidas sobre o teste anterior oa: oD ? A melhor solução prática me parece fazer uso da determinação de oD, que é provavelmente mais exata do que oa, mas usar os graus de liberdade do teste simples: np = 1 / n2 = np para deixar margem para as nossas dúvidas sobre a igualdade de oa a oD. Estes dois exemplos devem ser suficientes para demonstrar que apesar dos grandes progressos que nós podíamos registrar na teoria da variação do acaso, ainda existem problemas importantes a serem solucionados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

1) O equilíbrio em populações, inicialmente compostas de vários genotipos depende essencialmente de três fatores: a modalidade de reprodução e a relativa viabilidade e fertilidade dos genotipos, e as freqüências iniciais. 2) Temos que distinguir a) reprodução por cruzamento livre quando qualquer indivíduo da população pode ser cruzado com qualquer outro; b) reprodução por autofecundação, quando cada indivíduo é reproduzido por uma autofecundação; c) finalmente a reprodução mista, isto é, os casos intermediários onde os indivíduos são em parte cruzados, em parte autofecundados. 3) Populações heterozigotas para um par de gens e sem seleção. Em populações com reprodução cruzada se estabelece na primeira geração um equilíbrio entre os três genotipos, segundo a chamada regra de Hardy- Weinberg. Inicial : AA/u + Aa/v aa/u = 1 Equilibirio (u + v/2)² + u + v/2 ( w + v/2) + (w + v/2)² = p2 + 2 p o. q o. + q²o = 1 Em populações com autofecundação o equilíbrio será atingido quando estiverem presentes apenas os dois homozigotos, e uma fórmula é dada que permite calcular quantas gerações são necessárias para atingir aproximadamente este resultado. Finalmente, em populações com reprodução mista, obtemos um equilíbrio com valores intermediários, conforme Quadro 1. Frequência Genotipo Inicial mº Geração Final AA u u + 2m-1v / 2m+1 u + 1/2v Aa v 2/ 2m+2 v - aa w w + 2m - 1/ 2m + 1 v w + 1/2 v 4) Os índices de sobrevivencia. Para poder chegar a fórmulas matemáticas simples, é necessário introduzir índices de sobrevivência para medir a viabilidade e fertilidade dos homozigotos, em relação à sobrevivência dos heterozigotos. Designamos a sobrevivência absoluta de cada um dos três genotipos com x, y e z, e teremos então: x [ A A] : y [ Aa] : z [ aa] = x/y [ A A] : [ Aa] : z/ y [aa] = R A [ AA] : 1 [Aa] : Ra [aa] É evidente que os índices R poderão ter qualquer valor desde zero, quando haverá uma eliminação completa dos homozigotos, até infinito quando os heterozigotos serão completamente eliminados. Os termos (1 -K) de Haldane e (1 -S) ou W de Wright não têm esta propriedade matemática, podendo variar apenas entre zero e um. É ainda necessário distinguir índices parciais, de acordo com a marcha da eliminação nas diferentes fases da ontogenia dos indivíduos. Teremos que distinguir em primeiro lugar entre a eliminação durante a fase vegetativa e a eliminação na fase reprodutiva. Estas duas componentes são ligadas pela relação matemática. R - RV . RR 5) Populações com reprodução cruzada e eliminação. - Considerações gerais. a) O equilibrio final, independente da freqüência inicial dos genes e dos genotipos para valores da sobrevivência diferentes de um, é atingido quando os gens e os genotipos estão presentes nas proporções seguintes: (Quadro 2). po / qo = 1- ro / 1-Ra [AA] (1 - Ro)² . Rav [ Aa] = 2(1 - Ra) ( 1 - Ra) [a a} = ( 1 - Ra)² . RaA b) Fórmulas foram dadas que permitem calcular as freqüências dos genotipos em qualquer geração das populações. Não foi tentado obter fórmulas gerais, por processos de integração, pois trata-se de um processo descontínuo, com saltos de uma e outra geração, e de duração curta. 6) Populações com reprodução cruzada e eliminação. Podemos distinguir os seguintes casos: a) Heterosis - (Quadro 3 e Fig. 1). Ra < 1; Ra < 1 Inicial : Final : p (A)/q(a) -> 1-ra/1-ra = positivo/zero = infinito Os dois gens e assim os três genotipos zigóticos permanecem na população. Quando as freqüências iniciais forem maiores do que as do equilíbrio elas serão diminuidas, e quando forem menores, serão aumentadas. b) Gens recessivos letais ou semiletais. (Quadro 1 e Fig. 2). O equilíbrio será atingido quando o gen, que causa a redução da viabilidade dos homozigotos, fôr eliminado da população. . / c) Gens parcialmente dominantes semiletais. (Quadro 5 e Fig. 3). Rª ; Oz Ra < 1 Inicial : Equilibrio biológico Equilíbrio Matemático pa(A)/q(a) -> positivo /zero -> 1- Rq/ 1-Ra = positivo/negativo d) Genes incompatíveis. Ra > 1 ; Ra > 1; Ra > Ra Equílibrio/biológico p (A)/ q(a) -> positivo/zero Equilibrio matemático -> positivo/ zero -> zero/negativo -> 1-Ra/1 - Ra = negativo/negativo Nestes dois casos devemos distinguir entre o significado matemático e biológico. A marcha da eliminação não pode chegar até o equilíbrio matemático quando um dos gens alcança antes a freqüência zero, isto é, desaparece. Nos três casos teremos sempre uma eliminação relativamente rápida de um dos gens «e com isso do homozigoto respectivo e dos heterozigotòs. e) Foram discutidos mais dois casos especiais: eliminação reprodutiva diferencial dos dois valores do sexo feminino e masculino, -e gens para competição gametofítica. (Quadros 6 e 7 e Figs. 4 a 6). 7) População com autofecundação e seleção. O equilíbrio será atingido quando os genotipos estiverem presentes nas seguintes proporções: (Quadro 8); [AA] ( 0,5 - Ra). R AV [Aa] = 4. ( 0,5 - Ra) . (0.5 -R A) [aa] ( 0,5 - R A) . Rav Também foram dadas fórmulas que permitem calcular as proporções genotípicas em cada geração e a marcha geral da eliminação dos genotipos. 8)Casos especiais. Podemos notar que o termo (0,5 -R) nas fórmulas para as populações autofecundadas ocupa mais ou menos a mesma importância do que o termo (1-R) nas fórmulas para as populações cruzadas. a) Heterosis. (Quadro 9 e Fig. 7). Quando RA e Ra têm valores entre 0 e 0,5, obtemos o seguinte resultado: No equilíbrio ambos os gens estão presentes e os três heterozigotos são mais freqüentes do que os homozigotos. b) Em todos os demais casos, quando RA e Ra forem iguais ou maiores do que 0,5, o equilíbrio é atingido quando estão representados na população apenas os homozigotos mais viáveis e férteis. (Quadro 10). 9) Foram discutidos os efeitos de alterações dos valores da sobrevivência (Fig. 9), do modo de reprodução (Fig. 10) e das freqüências iniciais dos gens (Fig. 8). 10) Algumas aplicações à genética aplicada. Depois de uma discussão mais geral, dois problemas principais foram tratados: a) A homogeneização: Ficou demonstrado que a reprodução por cruzamento livre representa um mecanismo muito ineficiente, e que se deve empregar sempre ou a autofecundação ou pelo menos uma reprodução mista com a maior freqüência possível de acasalamentos consanguíneos. Fórmulas e dados (Quadro 11 e 12), permitem a determinação do número de gerações necessárias para obter um grau razoável de homozigotia- b) Heterosis. Existem dois processos, para a obtenção de um alto grau de heterozigotia e com isso de heterosis: a) O método clássico do "inbreeding and outbreeding". b) O método novo das populações balançadas, baseado na combinação de gens que quando homozigotos dão urna menor sobrevivência do que quando heterozigotos. 11) Algumas considerações sobre a teoria de evolução: a) Heterosis. Os gens com efeito "heterótico", isto é, nos casos onde os heterozigotos s mais viáveis e férteis, do que os homozigotos, oferecem um mecanismo especial de evolução, pois nestes casos a freqüência dos gens, apesar de seu efeito negativo na fase homozigota, tem a sua freqüência aumentada até que seja atingido o valor do equilíbrio. b) Gens letais e semiletais recessivos. Foi demonstrado que estes gens devem ser eliminados automáticamente das populações. Porém, ao contrário do esperado, não s raros por exemplo em milho e em Drosophila, gens que até hoje foram classificados nesta categoria. Assim, um estudo detalhado torna-se necessário para resolver se os heterozigotos em muitos destes casos não serão de maior sobrevivência do que ambos os homozigotos, isto é, que se trata realmente de genes heteróticos. c) Gens semiletais parcialmente dominantes. Estes gens serão sempre eliminados nas populações, e de fato eles são encontrados apenas raramente. d) Gens incompatíveis. São também geralmente eliminados das populações. Apenas em casos especiais eles podem ter importância na evolução, representando um mecanismo de isolamento.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estudos relativos às atividades da Controladoria que se inter-relacionam com outras ciências, como Psicologia e Sociologia, favorecem conhecimentos mais holísticos sobre essa área organizacional. Assim, neste estudo objetiva-se verificar os impactos da implantação das normas internacionais de contabilidade na controladoria à luz da Teoria da Estruturação. O pressuposto é que o processo de implantação das normas internacionais vem contribuir para a produção e a reprodução da ordem social da área organizacional controladoria. A Teoria da Estruturação de Giddens (1979; 1996; 2003) sustenta esta pesquisa exploratória, com abordagem qualitativa, realizada por meio de um estudo de caso em uma indústria têxtil. Nela, analisaram-se impactos da implantação das normas internacionais de contabilidade na controladoria, no período de 2008 a 2010, que abrange a fase de implantação dos CPCs na empresa, emitidos pelo Comitê de Pronunciamentos Contábeis (CPC). A coleta de dados deu-se por meio de observação, análise documental, entrevistas individuais e grupo focal. A análise das entrevistas individuais e do grupo focal foi realizada com o auxílio do software Atlas.ti. Os resultados apontaram que o processo de implantação das normas internacionais de contabilidade impactou a estrutura da área organizacional controladoria, por meio de novas atividades, discussões e mudanças nos processos e controles, além da interação dos agentes, por meio de comunicação e capacidades, permitindo a produção e a reprodução dessa área. Conclui-se que a dualidade da estrutura preconizada por Giddens (1979; 1996; 2003) ocorreu na empresa no período analisado, pois a estrutura impactou a interação e vice-versa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A teoria da Visão Baseada em Recursos (VBR) tem se destacado como uma das mais importantes correntes teóricas da estratégia. O uso da teoria dos recursos mostra-se promissor para a análise das propriedades rurais, permitindo avançar no conhecimento do potencial a ser explorado em torno dos recursos internos. No presente estudo, contribui-se com um levantamento da literatura sobre os principais recursos e/ou fatores-chave determinantes para o desempenho de propriedades rurais por meio da análise de trabalhos que utilizaram a teoria da VBR como base teórica. Com esse levantamento, pretende-se verificar quais recursos foram considerados estratégicos pela literatura da área. A metodologia utilizada foi de revisão sistemática. Os resultados indicaram que o uso da teoria em estudos de empreendimentos agropecuários ainda é incipiente. Foram levantados 14 artigos em fazendas em geral e, dentre esses, três estudos em fazendas produtoras de leite que mostram resultados consistentes quanto ao impacto dos recursos sobre o desempenho. Recursos humanos e organizacionais foram os mais citados como estratégicos e fundamentais para o desempenho. Os recursos físicos foram citados mais vezes em artigos que analisaram o meio rural se comparado à literatura geral do uso da VBR, talvez pela maior dependência de aspectos naturais no desempenho das fazendas em relação aos outros setores da economia. Contudo, devido ao pequeno número de trabalhos encontrados e à diversidade de abordagens em torno da teoria, não é possível realizar inferências, somente concluir que existe um gap de conhecimento nessa área que deve ser suprido por meio de novas e amplas pesquisas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma das tarefas políticas mais importantes dos estudos críticos na área de organizações é explorar os processos de organização da resistência. No entanto, esse desafio é dificultado devido à noção restrita de organização predominante no campo dos estudos organizacionais. Nesse sentido, a Teoria Política do Discurso (TPD) tem se apresentado como uma alternativa capaz de auxiliar na compreensão dos processos de resistência vivenciados por organizações contra hegemônicas, trazendo à tona práticas alternativas de organizar. Neste trabalho, o objetivo é, a partir da teoria mencionada, analisar práticas organizacionais desenvolvidas pelo Circuito Fora do Eixo para a articulação de diferentes iniciativas em prol de objetivos comuns. No estudo de caso empreendido, evidencia-se que categorias fornecidas pela TPD, como articulação e lógica de equivalência, apresentam elementos importantes para a análise e a compreensão dos processos de organização da resistência.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

São apresentados os pontos divergentes e convergentes entre um modelo de assistência a diabéticos e a teoria do Déficit de autocuidado de OREM. O modelo analisado pode ser considerado um programa de educação para pacientes diabéticos, diferindo nos aspectos conceituais e operacionais da teoria de OREM.