160 resultados para Distribuições a priori não informativas
em Scielo Saúde Pública - SP
Resumo:
O objetivo deste trabalho foi propor uma abordagem bayesiana do método de Eberhart & Russell para avaliar a adaptabilidade e da estabilidade fenotípica de genótipos de alfafa (Medicago sativa), bem como avaliar a eficiência da utilização de distribuições a priori informativas e pouco informativas. Foram utilizados dados de um experimento em blocos ao acaso, no qual se avaliou a produção de massa de matéria seca de 92 genótipos. A metodologia bayesiana proposta foi implementada no programa livre R por meio da função MCMCregress do pacote MCMCpack. Para representar as distribuições a priori pouco informativas, utilizaram-se distribuições de probabilidade com grande variância; e, para representar distribuições a priori informativas, adotou-se o conceito de meta-análise, que se caracteriza pela utilização de informações provenientes de trabalhos anteriores. A comparação entre as distribuições a priori foi realizada por meio do fator de Bayes, com a função BayesFactor do pacote MCMCpack, que indicou a priori informativa como a mais adequada nas condições deste estudo.
Resumo:
Resumo:O objetivo deste trabalho foi selecionar, sob a perspectiva bayesiana, genótipos de feijão-caupi (Vigna unguiculata) que reúnam alta adaptabilidade e estabilidade fenotípicas, no Estado do Mato Grosso do Sul. Foram utilizados dados de quatro experimentos, conduzidos em delineamento de blocos ao acaso, em que a produtividade de grãos de 20 genótipos de feijão-caupi semiprostrado foi avaliada. Para representar as distribuições a priori pouco informativas, utilizaram-se distribuições de probabilidade com grande variância; e, para representar distribuições a priori informativas, adotou-se o conceito de metanálise, com uso de informações de trabalhos anteriores. A comparação entre as distribuições a priori foi realizada por meio do fator de Bayes. A abordagem bayesiana proporciona maior acurácia na seleção de genótipos de feijão-caupi semiprostrado, com elevadas adaptabilidade e estabilidade fenotípicas avaliadas por meio da metodologia de Eberhart & Russell. Com base nas prioris informativas, os genótipos MNC99-507G-4, TE97-309G-24, MNC99-542F-7 e BR 17-Gurguéia são classificados como de alta adaptabilidade a ambientes favoráveis. Já os genótipos TE96-290-12G, MNC99-510F-16, MNC99-508G-1, MNC99-541F-21, MNC99-542F-5 e MNC99-547F-2 apresentam alta adaptabilidade a ambientes desfavoráveis.
Resumo:
Foram estudadas as funções de distribuição Beta, Gama e Weibull em dez hectares de floresta tropical úmida de terra-firme da Madeireira Dois Mil, localizada no município de Itacoatiara, Amazonas, Brasil. Foram medidas todas as árvores com DAP 20 cm num total de 2.035 indivíduos. Para avaliar a função que melhor ajustou a distribuição de diâmetros nesta floresta foi utilizado o teste de Kolmogorov-Smirnov e a Análise gráfica dos resíduos. O menor valor de "D" do teste Kolmogorov-Smirnov foi encontrado para a função Weibull, seguido da função Beta e por último da função Gama. As funções Weibull e Beta foram significativas ao nível de 5% de probabilidade pelo teste de Kolmogorov-Smirnov, mas a Gama foi não significativa. Pela análise gráfica dos resíduos foi encontrado também melhor resultado para a função Weibull, pois não apresentou pontos discrepantes, ocorrendo para todas as classes uma variância uniforme dos pontos em torno da linha. Desta forma, a função Weibull foi a que apresentou melhor ajuste. A função Beta pode ser utilizada, porém para algumas classes podem ocorrer subestimativas. A função Gama não é recomendada.
Resumo:
1) Chamamos um desvio relativo simples o quociente de um desvio, isto é, de uma diferença entre uma variável e sua média ou outro valor ideal, e o seu erro standard. D= v-v/ δ ou D = v-v2/δ Num desvio composto nós reunimos vários desvios de acordo com a equação: D = + Σ (v - 2)²: o o = o1/ o o Todo desvio relativo é caracterizado por dois graus de liberdade (número de variáveis livres) que indicam de quantas observações foi calculado o numerador (grau de liberdade nf1 ou simplesmente n2) e o denominador (grau de liberdade nf2 ou simplesmente n2). 2) Explicamos em detalhe que a chamada distribuição normal ou de OAUSS é apenas um caso especial que nós encontramos quando o erro standard do dividendo do desvio relativo é calculado de um número bem grande de observações ou determinado por uma fórmula teórica. Para provar este ponto foi demonstrado que a distribuição de GAUSS pode ser derivada da distribuição binomial quando o expoente desta torna-se igual a infinito (Fig.1). 3) Assim torna-se evidente que um estudo detalhado da variação do erro standard é necessário. Mostramos rapidamente que, depois de tentativas preliminares de LEXIS e HELMERT, a solução foi achada pelos estatísticos da escola londrina: KARL PEARSON, o autor anônimo conhecido pelo nome de STUDENT e finalmente R. A. FISHER. 4) Devemos hoje distinguir quatro tipos diferentes de dis- tribuições de acaso dos desvios relativos, em dependência de combinação dos graus de liberdade n1 e n2. Distribuição de: fisher 1 < nf1 < infinito 1 < nf2 < infinito ( formula 9-1) Pearson 1 < nf1 < infinito nf 2= infinito ( formula 3-2) Student nf2 = 1 1 < nf2= infinito ( formula 3-3) Gauss nf1 = 1 nf2= infinito ( formula 3-4) As formas das curvas (Fig. 2) e as fórmulas matemáticas dos quatro tipos de distribuição são amplamente discutidas, bem como os valores das suas constantes e de ordenadas especiais. 5) As distribuições de GAUSS e de STUDENT (Figs. 2 e 5) que correspondem a variação de desvios simples são sempre simétricas e atingem o seu máximo para a abcissa D = O, sendo o valor da ordenada correspondente igual ao valor da constante da distribuição, k1 e k2 respectivamente. 6) As distribuições de PEARSON e FISHER (Fig. 2) correspondentes à variação de desvios compostos, são descontínuas para o valor D = O, existindo sempre duas curvas isoladas, uma à direita e outra à esquerda do valor zero da abcissa. As curvas são assimétricas (Figs. 6 a 9), tornando-se mais e mais simétricas para os valores elevados dos graus de liberdade. 7) A natureza dos limites de probabilidade é discutida. Explicámos porque usam-se em geral os limites bilaterais para as distribuições de STUDENT e GAUSS e os limites unilaterais superiores para as distribuições de PEARSON e FISHER (Figs. 3 e 4). Para o cálculo dos limites deve-se então lembrar que o desvio simples, D = (v - v) : o tem o sinal positivo ou negativo, de modo que é em geral necessário determinar os limites bilaterais em ambos os lados da curva (GAUSS e STUDENT). Os desvios relativos compostos da forma D = O1 : o2 não têm sinal determinado, devendo desprezar-se os sinais. Em geral consideramos apenas o caso o1 ser maior do que o2 e os limites se determinam apenas na extremidade da curva que corresponde a valores maiores do que 1. (Limites unilaterais superiores das distribuições de PEARSON e FISHER). Quando a natureza dos dados indica a possibilidade de aparecerem tanto valores de o(maiores como menores do que o2,devemos usar os limites bilaterais, correspondendo os limites unilaterais de 5%, 1% e 0,1% de probabilidade, correspondendo a limites bilaterais de 10%, 2% e 0,2%. 8) As relações matemáticas das fórmulas das quatro distribuições são amplamente discutidas, como também a sua transformação de uma para outra quando fazemos as necessárias alterações nos graus de liberdade. Estas transformações provam matematicamente que todas as quatro distribuições de acaso formam um conjunto. Foi demonstrado matematicamente que a fórmula das distribuições de FISHER representa o caso geral de variação de acaso de um desvio relativo, se nós extendermos a sua definição desde nfl = 1 até infinito e desde nf2 = 1 até infinito. 9) Existe apenas uma distribuição de GAUSS; podemos calcular uma curva para cada combinação imaginável de graus de liberdade para as outras três distribuições. Porém, é matematicamente evidente que nos aproximamos a distribuições limitantes quando os valores dos graus de liberdade se aproximam ao valor infinito. Partindo de fórmulas com área unidade e usando o erro standard como unidade da abcissa, chegamos às seguintes transformações: a) A distribuição de STUDENT (Fig. 5) passa a distribuição de GAUSS quando o grau de liberdade n2 se aproxima ao valor infinito. Como aproximação ao infinito, suficiente na prática, podemos aceitar valores maiores do que n2 = 30. b) A distribuição de PEARSON (Fig. 6) passa para uma de GAUSS com média zero e erro standard unidade quando nl é igual a 1. Quando de outro lado, nl torna-se muito grande, a distribuição de PEARSON podia ser substituída por uma distribuição modificada de GAUSS, com média igual ale unidade da abcissa igual a 1 : V2 n 1 . Para fins práticos, valores de nl maiores do que 30 são em geral uma aproximação suficiente ao infinito. c) Os limites da distribuição de FISHER são um pouco mais difíceis para definir. I) Em primeiro lugar foram estudadas as distribuições com n1 = n2 = n e verificamos (Figs. 7 e 8) que aproximamo-nos a uma distribuição, transformada de GAUSS com média 1 e erro standard l : Vn, quando o valor cresce até o infinito. Como aproximação satisfatória podemos considerar nl = n2 = 100, ou já nl =r n2 - 50 (Fig. 8) II) Quando n1 e n2 diferem (Fig. 9) podemos distinguir dois casos: Se n1 é pequeno e n2 maior do que 100 podemos substituir a distribuição de FISHER pela distribuição correspondente de PEARSON. (Fig. 9, parte superior). Se porém n1é maior do que 50 e n2 maior do que 100, ou vice-versa, atingimos uma distribuição modificada de GAUSS com média 1 e erro standard 1: 2n1 n3 n1 + n2 10) As definições matemáticas e os limites de probabilidade para as diferentes distribuições de acaso são dadas em geral na literatura em formas bem diversas, usando-se diferentes sistemas de abcissas. Com referência às distribuições de FISHER, foi usado por este autor, inicialmente, o logarítmo natural do desvio relativo, como abcissa. SNEDECOR (1937) emprega o quadrado dos desvios relativos e BRIEGER (1937) o desvio relativo próprio. As distribuições de PEARSON são empregadas para o X2 teste de PEARSON e FISHER, usando como abcissa os valores de x² = D². n1 Foi exposto o meu ponto de vista, que estas desigualdades trazem desvantagens na aplicação dos testes, pois atribui-se um peso diferente aos números analisados em cada teste, que são somas de desvios quadrados no X2 teste, somas des desvios quadrados divididos pelo grau de liberdade ou varianças no F-teste de SNEDECOR, desvios simples no t-teste de STUDENT, etc.. Uma tábua dos limites de probabilidade de desvios relativos foi publicada por mim (BRIEGER 1937) e uma tábua mais extensa será publicada em breve, contendo os limites unilaterais e bilaterais, tanto para as distribuições de STUDENT como de FISHER. 11) Num capítulo final são discutidas várias complicações que podem surgir na análise. Entre elas quero apenas citar alguns problemas. a) Quando comparamos o desvio de um valor e sua média, deveríamos corretamente empregar também os erros de ambos estes valores: D = u- u o2 +²5 Mas não podemos aqui imediatamente aplicar os limites de qualquer das distribuições do acaso discutidas acima. Em geral a variação de v, medida por o , segue uma distribuição de STUDENT e a variação da média V segue uma distribuição de GAUSS. O problema a ser solucionado é, como reunir os limites destas distribuições num só teste. A solução prática do caso é de considerar a média como uma constante, e aplicar diretamente os limites de probabilidade das dstribuições de STUDENT com o grau de liberdade do erro o. Mas este é apenas uma solução prática. O problema mesmo é, em parte, solucionado pelo teste de BEHRENDS. b) Um outro problema se apresenta no curso dos métodos chamados "analysis of variance" ou decomposição do erro. Supomos que nós queremos comparar uma média parcial va com a média geral v . Mas podemos calcular o erro desta média parcial, por dois processos, ou partindo do erro individual aa ou do erro "dentro" oD que é, como explicado acima, uma média balançada de todos os m erros individuais. O emprego deste último garante um teste mais satisfatório e severo, pois êle é baseado sempre num grau de liberdade bastante elevado. Teremos que aplicar dois testes em seguida: Em primeiro lugar devemos decidir se o erro ou difere do êrro dentro: D = δa/δ0 n1 = np/n2 m. n p Se este teste for significante, uma substituição de oa pelo oD não será admissível. Mas mesmo quando o resultado for insignificante, ainda não temos certeza sobre a identidade dos dois erros, pois pode ser que a diferença entre eles é pequena e os graus de liberdade não são suficientes para permitir o reconhecimento desta diferença como significante. Podemos então substituirmos oa por oD de modo que n2 = m : np: D = V a - v / δa Np n = 1 n2 = np passa para D = v = - v/ δ Np n = 1 n2 = m.n p as como podemos incluir neste último teste uma apreciação das nossas dúvidas sobre o teste anterior oa: oD ? A melhor solução prática me parece fazer uso da determinação de oD, que é provavelmente mais exata do que oa, mas usar os graus de liberdade do teste simples: np = 1 / n2 = np para deixar margem para as nossas dúvidas sobre a igualdade de oa a oD. Estes dois exemplos devem ser suficientes para demonstrar que apesar dos grandes progressos que nós podíamos registrar na teoria da variação do acaso, ainda existem problemas importantes a serem solucionados.
Resumo:
As funções de densidade probabilidade Weibull e Hiperbólica foram comparadas quanto a eficiência de descrever a estrutura diamétrica de povoamentos de Teca (Tectona grandis L. f.) submetidas a desbaste. As duas funções com três e quatro parâmetros, foram ajustadas com dados de 98 parcelas permanentes, retangulares (490 m²), instaladas em um povoamento desbastado de Tectona grandis, no Estado do Mato Grosso e medidas durante 10 anos. Os ajustes foram feitos por Máxima Verossimilhança e a aderência foi avaliada pelo teste Kolmogorov-Smirnorv (a = 1%). Também foram comparadas a soma de quadrados dos resíduos (SQR) dos diferentes ajustamentos. Todas as funções apresentaram aderência aos dados pelo teste de Kolmogorov-Smirnorv (a = 1%). A função hiperbólica apresentou menor soma de quadrados de resíduos e menores valores para o teste de aderência. Foi possível concluir que a função hiperbólica foi mais eficiente para descrever a estrutura diametrica dos povoamentos estudados.
Resumo:
O regime eólico de uma região pode ser descrito por distribuição de frequências que fornecem informações e características extremamente necessárias para uma possível implantação de sistemas eólicos de captação de energia na região e consequentes aplicações no meio rural em regiões afastadas. Estas características, tais como a velocidade média anual, a variância das velocidades registradas e a densidade da potência eólica média horária, podem ser obtidas pela frequência de ocorrências de determinada velocidade, que por sua vez deve ser estudada através de expressões analíticas. A função analítica mais adequada para distribuições eólicas é a função de densidade de Weibull, que pode ser determinada por métodos numéricos e regressões lineares. O objetivo deste trabalho é caracterizar analítica e geometricamente todos os procedimentos metodológicos necessários para a realização de uma caracterização completa do regime eólico de uma região e suas aplicações na região de Botucatu - SP, visando a determinar o potencial energético para implementação de turbinas eólicas. Assim, foi possível estabelecer teoremas relacionados com a forma de caracterização do regime eólico, estabelecendo a metodologia concisa analiticamente para a definição dos parâmetros eólicos de qualquer região a ser estudada. Para o desenvolvimento desta pesquisa, utilizou-se um anemômetro da CAMPBELL.
Resumo:
The use of limiting dilution assay (LDA) for assessing the frequency of responders in a cell population is a method extensively used by immunologists. A series of studies addressing the statistical method of choice in an LDA have been published. However, none of these studies has addressed the point of how many wells should be employed in a given assay. The objective of this study was to demonstrate how a researcher can predict the number of wells that should be employed in order to obtain results with a given accuracy, and, therefore, to help in choosing a better experimental design to fulfill one's expectations. We present the rationale underlying the expected relative error computation based on simple binomial distributions. A series of simulated in machina experiments were performed to test the validity of the a priori computation of expected errors, thus confirming the predictions. The step-by-step procedure of the relative error estimation is given. We also discuss the constraints under which an LDA must be performed.
Resumo:
OBJETIVO: Descrever os hábitos de automedicação praticados pelos pacientes portadores de afecções otorrinolaringológicas, visando caracterizar aspectos problemáticos passíveis de intervenção. FORMA DE ESTUDO: Estudo descritivo. MATERIAL E MÉTODO: Utilizamos como instrumento para a obtenção dos dados deste trabalho um questionário em formato de testes de múltipla escolha, contendo 17 questões sobre os hábitos de automedicação, distribuído a pacientes atendidos na clínica de otorrinolaringologia do Instituto Penido Burnier, durante o mês de julho de 2003. RESULTADO: Aproximadamente 83% dos pacientes relataram já ter usado ou comprado medicação sem apresentação da receita médica. Porém, desse total, 73% responderam que tal medicação não requeria "apresentação obrigatória" da receita para a sua compra. Os mais utilizados foram: analgésicos/antitérmicos (90%), seguidos pelos antigripais (78%) e pelos AINEs (69%). Os antibióticos apareceram em 8 (11%). Com relação aos motivos ou doenças que os pacientes acreditavam possuir, as cefaléias (76%), que justificassem a automedicação, observamos: em 1 seguidas por resfriados/gripes (74%) e por quadros febris (56%). Já as otites apareceram em último lugar (12%). CONCLUSÃO: Este trabalho demonstra a necessidade de contínuas campanhas informativas e conscientizadoras da população em geral quanto aos riscos de uma automedicação desnecessária ou equivocada, além da devida regulamentação e fiscalização do mercado farmacêutico pelas autoridades competentes.
Resumo:
As pimentas do gênero Capsicum apresentam grande importância para o mercado de condimentos e para o uso ornamental no Brasil. A estimativa da diversidade genética é importante na escolha de progenitores de programa de melhoramento genético. Este trabalho teve por objetivo verificar a eficiência de descritores multicategóricos de flores para estimar a dissimilaridade genética entre acessos de Capsicum chinense, do Banco Ativo de Germoplasma Capsicum, da Embrapa Clima Temperado. O experimento foi realizado no período de agosto de 2009 a março de 2010, no campo experimental da Embrapa Clima Temperado, em blocos ao acaso, utilizando-se 22 acessos, com dez plantas por parcela. Para a caracterização morfológica das flores, foram avaliadas cinco flores de cada planta, de dez plantas por acesso. Foram utilizados 15 descritores, sendo cinco quantitativos e dez qualitativos multicategóricos. Foram realizadas análises de comparação de médias, utilizando-se agrupamento pelos métodos UPGMA e de Tocher, para os dados quantitativos, e agrupamento pelo método de Tocher, para os dados qualitativos. Os acessos estudados apresentam ampla diversidade genética em relação a descritores de flores, existindo grande variabilidade entre os acessos avaliados, o que recomenda seu uso em programas de melhoramento genético. O uso de descritores multicategóricos de flores é eficiente para estimar a dissimilaridade genética entre acessos de Capsicum chinense.
Resumo:
A erosividade das chuvas é um dos principais agentes causadores da erosão do solo, no sul de Minas Gerais. Por essa razão, objetivou-se, com este trabalho, aplicar cinco distribuições de probabilidades aos valores de erosividades, mensais e anual, e estimar o tempo de recorrência desses valores, com base na melhor distribuição de probabilidades ajustada para a região de Lavras, MG. A série de precipitações estudada foi de 1961 a 2004 e as distribuições de probabilidades utilizadas foram: Gumbel, Gama, Log-normal 2 e 3 parâmetros e Normal, ajustadas pelo método da Máxima Verossimilhança. Verificou-se que as distribuições Gama e Gumbel produziram o menor número de séries não adequadas, registrando-se apenas uma, para o mês de agosto. As demais distribuições produziram maiores números de séries não adequadas, especialmente, a distribuição Log-normal 2 parâmetros. Sendo assim, recomenda-se, para o cálculo de erosividade, que seja feita uma verificação prévia da melhor distribuição para cada período da série estudada, apesar de os dados apontarem um desempenho considerável da distribuição Gumbel.
Resumo:
O conhecimento dos padrões de dispersão populacional de Spodoptera frugiperda (J. E. Smith), a mais importante praga do milho, no Brasil, é fundamental para o estabelecimento de técnicas eficientes de monitoramento e manejo. Este trabalho objetivou conhecer a distribuição espacial da praga na cultura. A distribuição espacial foi avaliada em cinco campos experimentais, de um hectare cada, divididos em 100 unidades experimentais, onde se avaliaram de cinco a dez plantas por parcela. Foi testado o ajuste das frequências observadas às esperadas, de acordo com as distribuições de Poisson, Binomial Negativa e Binomial Positiva. Spodoptera frugiperda ocorreu em elevados índices populacionais na área amostral, com correlação significativa entre a nota de injúria 3 e o número de lagartas médias, o que também ocorreu para o número de plantas infestadas com pelo menos uma lagarta média. Não houve correlação significativa entre a nota de injúria 3 e lagartas pequenas. O modelo que melhor se aproximou dos dados de distribuição da oviposição foi a Binomial Positiva, enquanto a disposição espacial de lagartas, atacando a espiga, foi descrita como aleatória. O modelo de distribuição Binomial Positiva foi o que melhor representou a distribuição espacial da população de plantas infestadas; a distribuição das lagartas de tamanho médio teve padrão de distribuição agregada.
Resumo:
Este artigo trata das conseqüências humanas advindas dos modos de trabalhar e de gerir implementados pela reestruturação produtiva do trabalho. Mapeia e analisa a mobilidade - transferências de lugar e/ou de cargo - de sujeitos da reestruturação numa instituição bancária pública; e apresenta as conseqüências da reestruturação a partir da visão dos bancários. O estudo de caso foi utilizado como estratégia de pesquisa, cujos dados foram coletados via documentos da empresa, entrevistas informativas e entrevistas semiestruturadas em 1998 e 2003. Os dados sofreram análise estatística e de conteúdo. Os resultados indicam que a reestruturação produtiva acarretou mobilidade de modo diferenciado, e os efeitos mais perversos recaíram sobre sujeitos mais velhos e com mais tempo de serviço, já que estes descenderam na hierarquia da empresa. Como conseqüências humanas, têm-se nomadismo involuntário, instabilidade na estabilidade do emprego, relacionamentos de curto prazo, ruptura dos laços de confiança e sofrimento psíquico.
Resumo:
O relacionamento entre empresas constitui importante questão na gestão de cadeias de suprimentos. Vários aspectos relacionados ao fluxo e à troca de informações ao longo da cadeia são considerados como tendo influência decisiva no sucesso desse relacionamento. O objetivo central deste trabalho foi estruturar e testar alguns modelos de vínculos entre aspectos dessa natureza com o desempenho e com o relacionamento comprador-fornecedor na cadeia de suprimentos. Foram investigados aspectos pertinentes à comunicação e ao uso de tecnologia da informação no relacionamento entre as empresas. A relação do desempenho com o relacionamento também foi investigada. A pesquisa realizada foi calcada em dados empíricos apurados por meio da modelagem de equações estruturais. Os resultados mostram que alguns aspectos contribuem de forma significativa para o sucesso do relacionamento, enquanto outros, que a priori seriam considerados importantes, não evidenciam contribuição.
Resumo:
O trabalho busca adequar a Escala de Conveniência de Serviços - Servcon (SEIDERS, VOSS, GODFREY, 2007) para uso no contexto brasileiro, mais especificamente no varejo de livre localização das cidades de porte médio. Assume, a priori, que as cinco dimensões utilizadas na escala original não são suficientes para representar a conveniência de serviços na realidade brasileira, por ignorar importantes fatores de (in)conveniência, como aqueles decorrentes da insegurança, da informalidade e da desorganização urbana. Após a etapa exploratória, feita por meio de grupo focal, foram colhidas duas amostras de respondentes, uma formada por 268 universitários e outra por 206 consumidores não acadêmicos. O trabalho acrescenta duas novas dimensões à Servcon original, cuja versão ampliada apresenta índices razoáveis de ajustamento geral, de confiabilidade e de variância extraída em todos os construtos. Os resultados evidenciam que fatores relacionados à segurança, à mobilidade e ao regramento da informalidade precisam ser incorporados ao estudo da conveniência, para adequá-la ao contexto brasileiro.
Influência das configurações organizacionais sobre valores no trabalho e preferências por recompensa
Resumo:
O artigo tem como objetivo identificar as similaridades e diferenças nos valores relacionados ao trabalho e preferências por recompensa entre diferentes configurações organizacionais, especificamente organizações privadas, públicas e de contextos mistos ou híbridos. Tendo como base pesquisa realizada no Brasil por Tamayo e Gondim (1996) sobre os valores e nos Estados Unidos por Wittmer (1991) sobre preferências por recompensa, as variáveis de interesse relacionaram-se a quatro categorias de valores associados ao trabalho: i) eficácia/eficiência, ii) sistema de gestão organizacional, iii) respeito ao empregado e iv) preferências por recompensa. O procedimento analítico adotado foi o da comparação das distribuições para os grupos, em cada categoria de análise, usando a análise da variância e confirmação pelo teste não paramétrico de Kruskal-Wallis. Foram encontradas diferenças significativas no nível de 5% apenas para dois itens relacionados à categoria sistema de gestão organizacional (respeito aos níveis de autoridade e à hierarquia, e cumprimento das tarefas dentro dos padrões da organização) para as respostas dos três grupos. Em relação à categoria preferências por recompensa, os resultados contrariam aqueles obtidos por Wittmer (1991) no contexto americano.