956 resultados para Créditos - Métodos estatísticos


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este trabalho tem como objetivo o estudo do comportamento assintótico da estatística de Pearson (1900), que é o aparato teórico do conhecido teste qui-quadrado ou teste x2 como também é usualmente denotado. Inicialmente estudamos o comportamento da distribuição da estatística qui-quadrado de Pearson (1900) numa amostra {X1, X2,...,Xn} quando n → ∞ e pi = pi0 , 8n. Em seguida detalhamos os argumentos usados em Billingley (1960), os quais demonstram a convergência em distribuição de uma estatística, semelhante a de Pearson, baseada em uma amostra de uma cadeia de Markov, estacionária, ergódica e com espaço de estados finitos S

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Pós-graduação em Agronomia (Energia na Agricultura) - FCA

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O propósito desta Tese foi detectar e caracterizar áreas sob alto risco para leishmaniose visceral (LV) e descrever os padrões de ocorrência e difusão da doença, entre os anos de 1993 a 1996 e 2001 a 2006, em Teresina, Piauí, por meio de métodos estatísticos para análise de dados espaciais, sistemas de informações geográficas e imagens de sensoriamento remoto. Os resultados deste estudo são apresentados na forma de três manuscritos. O primeiro usou análise de dados espaciais para identificar as áreas com maior risco de LV na área urbana de Teresina entre 2001 e 2006. Os resultados utilizando razão de kernels demonstraram que as regiões periféricas da cidade foram mais fortemente afetadas ao longo do período analisado. A análise com indicadores locais de autocorrelação espacial mostrou que, no início do período de estudo, os agregados de alta incidência de LV localizavam-se principalmente na região sul e nordeste da cidade, mas nos anos seguintes os eles apareceram também na região norte da cidade, sugerindo que o padrão de ocorrência de LV não é estático e a doença pode se espalhar ocasionalmente para outras áreas do município. O segundo estudo teve como objetivo caracterizar e predizer territórios de alto risco para ocorrência da LV em Teresina, com base em indicadores socioeconômicos e dados ambientais, obtidos por sensoriamento remoto. Os resultados da classificação orientada a objeto apontam a expansão da área urbana para a periferia da cidade, onde antes havia maior cobertura de vegetação. O modelo desenvolvido foi capaz de discriminar 15 conjuntos de setores censitário (SC) com diferentes probabilidades de conterem SC com alto risco de ocorrência de LV. O subconjunto com maior probabilidade de conter SC com alto risco de LV (92%) englobou SC com percentual de chefes de família alfabetizados menor que a mediana (≤64,2%), com maior área coberta por vegetação densa, com percentual de até 3 moradores por domicílio acima do terceiro quartil (>31,6%). O modelo apresentou, respectivamente, na amostra de treinamento e validação, sensibilidade de 79% e 54%, especificidade de 74% e 71%, acurácia global de 75% e 67% e área sob a curva ROC de 83% e 66%. O terceiro manuscrito teve como objetivo avaliar a aplicabilidade da estratégia de classificação orientada a objeto na busca de possíveis indicadores de cobertura do solo relacionados com a ocorrência da LV em meio urbano. Os índices de acurácia foram altos em ambas as imagens (>90%). Na correlação da incidência da LV com os indicadores ambientais verificou-se correlações positivas com os indicadores Vegetação densa, Vegetação rasteira e Solo exposto e negativa com os indicadores Água, Urbana densa e Urbana verde, todos estatisticamente significantes. Os resultados desta tese revelam que a ocorrência da LV na periferia de Teresina está intensamente relacionada às condições socioeconômicas inadequadas e transformações ambientais decorrentes do processo de expansão urbana, favorecendo a ocorrência do vetor (Lutzomyia longipalpis) nestas regiões.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O presente trabalho apresenta um estudo referente à aplicação da abordagem Bayesiana como técnica de solução do problema inverso de identificação de danos estruturais, onde a integridade da estrutura é continuamente descrita por um parâmetro estrutural denominado parâmetro de coesão. A estrutura escolhida para análise é uma viga simplesmente apoiada do tipo Euler-Bernoulli. A identificação de danos é baseada em alterações na resposta impulsiva da estrutura, provocadas pela presença dos mesmos. O problema direto é resolvido através do Método de Elementos Finitos (MEF), que, por sua vez, é parametrizado pelo parâmetro de coesão da estrutura. O problema de identificação de danos é formulado como um problema inverso, cuja solução, do ponto de vista Bayesiano, é uma distribuição de probabilidade a posteriori para cada parâmetro de coesão da estrutura, obtida utilizando-se a metodologia de amostragem de Monte Carlo com Cadeia de Markov. As incertezas inerentes aos dados medidos serão contempladas na função de verossimilhança. Três estratégias de solução são apresentadas. Na Estratégia 1, os parâmetros de coesão da estrutura são amostrados de funções densidade de probabilidade a posteriori que possuem o mesmo desvio padrão. Na Estratégia 2, após uma análise prévia do processo de identificação de danos, determina-se regiões da viga potencialmente danificadas e os parâmetros de coesão associados à essas regiões são amostrados a partir de funções de densidade de probabilidade a posteriori que possuem desvios diferenciados. Na Estratégia 3, após uma análise prévia do processo de identificação de danos, apenas os parâmetros associados às regiões identificadas como potencialmente danificadas são atualizados. Um conjunto de resultados numéricos é apresentado levando-se em consideração diferentes níveis de ruído para as três estratégias de solução apresentadas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O propósito da tese é analisar em que circunstâncias presidentes brasileiros recorrem a mecanismos de controle político sobre a burocracia pública. O argumento central é que o recurso presidencial a nomeações políticas, decretos regulamentares detalhados e criação de órgãos públicos centralizados na Presidência deverá variar em função de fatores políticos e características das coalizões de governo. Por meio de nomeações políticas, presidentes podem monitorar o comportamento de servidores públicos sob a influência indesejada de ministros do gabinete. Com decretos regulamentares detalhados podem reduzir a autonomia decisória de servidores públicos na interpretação de leis vagas. Por fim, por meio da criação de órgãos públicos centralizados na Presidência, podem gerar condições mais favoráveis ao futuro controle da burocracia pública. O propósito da tese será desdobrado em três problemas de pesquisa, com desenhos orientados para variáveis. O primeiro, desenvolvido no primeiro capítulo, aborda como a heterogeneidade política da coalizão afeta o controle presidencial sobre a burocracia pública por meio de nomeações políticas. O segundo problema, discutido no capítulo seguinte, analisa como a rotatividade ministerial e a demanda pela implementação interministerial de uma mesma lei afetam o grau de detalhamento de decretos regulamentares. Por fim, o terceiro problema de pesquisa, abordado no último capítulo, avalia como a composição heterogênea dos gabinetes afeta a criação de burocracias centralizadas na Presidência da República. Por meio de métodos estatísticos, foram estimados modelos de regressão linear multivariada a fim de analisar os determinantes 1. das nomeações políticas e 2. do grau de detalhamento dos decretos regulamentares, bem como modelos de regressão logística binária para avaliar a probabilidade de centralização presidencial na criação de órgãos públicos. A politização da burocracia federal tende a aumentar quando o conflito entre parceiros da coalizão é maior, uma alternativa presidencial às orientações ministeriais indesejadas sobre a burocracia pública. Decretos regulamentares tendem a ser mais detalhados quando ministérios são mais voláteis e quando há implementação interministerial, uma alternativa presidencial à autonomia da burocracia pública. Por fim, a centralização tende a crescer quando o conflito de políticas entre presidente e ministros é maior, uma saída às orientações ministeriais nocivas às preferências do presidente.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Processos de produção precisam ser avaliados continuamente para que funcionem de modo mais eficaz e eficiente possível. Um conjunto de ferramentas utilizado para tal finalidade é denominado controle estatístico de processos (CEP). Através de ferramentas do CEP, o monitoramento pode ser realizado periodicamente. A ferramenta mais importante do CEP é o gráfico de controle. Nesta tese, foca-se no monitoramento de uma variável resposta, por meio dos parâmetros ou coeficientes de um modelo de regressão linear simples. Propõe-se gráficos de controle χ2 adaptativos para o monitoramento dos coeficientes do modelo de regressão linear simples. Mais especificamente, são desenvolvidos sete gráficos de controle χ2 adaptativos para o monitoramento de perfis lineares, a saber: gráfico com tamanho de amostra variável; intervalo de amostragem variável; limites de controle e de advertência variáveis; tamanho de amostra e intervalo de amostragem variáveis; tamanho de amostra e limites variáveis; intervalo de amostragem e limites variáveis e por fim, com todos os parâmetros de projeto variáveis. Medidas de desempenho dos gráficos propostos foram obtidas através de propriedades de cadeia de Markov, tanto para a situação zero-state como para a steady-state, verificando-se uma diminuição do tempo médio até um sinal no caso de desvios pequenos a moderados nos coeficientes do modelo de regressão do processo de produção. Os gráficos propostos foram aplicados a um exemplo de um processo de fabricação de semicondutores. Além disso, uma análise de sensibilidade dos mesmos é feita em função de desvios de diferentes magnitudes nos parâmetros do processo, a saber, no intercepto e na inclinação, comparando-se o desempenho entre os gráficos desenvolvidos e também com o gráfico χ2 com parâmetros fixos. Os gráficos propostos nesta tese são adequados para vários tipos de aplicações. Neste trabalho também foi considerado características de qualidade as quais são representadas por um modelo de regressão não-linear. Para o modelo de regressão não-linear considerado, a proposta é utilizar um método que divide o perfil não-linear em partes lineares, mais especificamente, um algoritmo para este fim, proposto na literatura, foi utilizado. Desta forma, foi possível validar a técnica proposta, mostrando que a mesma é robusta no sentido que permite tipos diferentes de perfis não-lineares. Aproxima-se, portanto um perfil não-linear por perfis lineares por partes, o que proporciona o monitoramento de cada perfil linear por gráficos de controle, como os gráficos de controle desenvolvidos nesta tese. Ademais apresenta-se a metodologia de decompor um perfil não-linear em partes lineares de forma detalhada e completa, abrindo espaço para ampla utilização.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O objetivo desta tese foi identificar e caracterizar áreas com altas taxas de mortalidade por doenças do aparelho circulatório (DAC) e seus dois principais subgrupos de causas: as doenças isquêmicas do coração (DIC) e as doenças cerebrovasculares (DCV), entre os anos de 2008 e 2012 na área de influência do complexo petroquímico do estado do Rio de Janeiro COMPERJ, por meio de métodos estatísticos e sistemas de informações geográficas (SIG). Os resultados da investigação são apresentados na forma de dois manuscritos. O primeiro objetivou descrever o perfil da distribuição espacial da mortalidade por (DAC), caracterizar e predizer territórios com maior risco de morte por esta causa, com base em classificação das unidades espaciais por indicador de qualidade urbana (IQUmod). A análise multivariada foi realizada por meio do método conhecido como árvore de decisão e regressão, baseado em algoritmo CART para a obtenção do modelo preditivo para UVLs com diferentes riscos de mortalidade por DAC. O modelo desenvolvido foi capaz de discriminar sete conjuntos de UVLs, com diferentes taxas médias de mortalidades. O subconjunto que apresenta a maior taxa média (1037/100 mil hab.) apresenta 3 UVLs com mais de 75% de seus domicílios com abastecimento de água inadequado e valor de IQUmod acima de 0.6. Conclui-se que na área de influência do COMPERJ existem áreas onde a mortalidade por DAC se apresenta com maior magnitude e que a identificação dessas áreas pode auxiliar na elaboração, diagnóstico, prevenção e planejamento de ações de saúde direcionadas aos grupos mais susceptíveis. O segundo manuscrito teve por objetivo descrever o perfil da distribuição espacial da mortalidade por DIC e DCV em relação ao contexto socioambiental segundo áreas geográficas. O modelo de regressão linear de Poisson com parâmetro de estimação via quasi-verossimilhança foi usado para verificar associação entre as variáveis. Foram identificados como fatores de risco para mortalidade por DIC e DCV a variável relativa a melhor renda e maior distância entre domicílios e unidades de saúde; a proporção de domicílios em ruas pavimentadas aparece como fator de proteção. A distribuição espacial e as associações encontradas entre os desfechos e preditores sugerem que as populações residentes em localidades mais afastadas dos centros urbanos apresentam maiores taxas de mortalidade por DIC e DCV e que isto pode estar relacionado a contextos rurais de localização das residências e a distância geográfica destas populações aos serviços de saúde. Aponta-se para a necessidade de desenvolvimento de ações que propiciem maior amplitude no atendimento em saúde, no intuito da redução de eventos cardiovasculares mórbidos incidentes naquelas populações.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A evolução tecnológica tem feito as empresas se modificarem, e para acompanhar o mercado elas buscam opções que possam ajudar melhor nas tomadas de suas decisões, uma delas é a utilização de tecnologias. A presente pesquisa objetiva analisar a contribuição da tecnologia da informação no orçamento da indústria Alfa. Esta pesquisa é descritiva e exploratória, pois busca descrever a realidade da organização, identificando as características do orçamento da mesma, é quantitativa, pois busca através de métodos estatísticos realizar previsões para o ano de 2013 das demonstrações de resultados advindos dos anos anteriores (2010 a 2012), é também, qualitativa, pois foi elaborado um questionário que pôde auxiliar na interpretação dos dados quantitativos, possibilitando melhores informações sobre o objetivo proposto. Concluiu-se que a tecnologia pode ajudar a melhorar a qualidade da previsão do orçamento da indústria Alfa e o método que melhor se adequou para as estimativas foi a suavização exponencial que demonstrou maior confiabilidade para os resultados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Neste trabalho foi utilizado um método matemático para classificar registros de potencial e corrente de ensaios de corrosão na técnica de amperimetria de resistência nula (ZRA). Foi aplicado o método estatístico de múltiplas variáveis simples chamado Análise dos Componentes Principais (PCA), cujo objetivo principal foi identificar padrões nestes dados de ruído eletroquímico. Foram testados o aço carbono UNS G10200, os aços inoxidáveis austenítico UNS S31600 e o superduplex UNS S32750 em meios de ácido sulfúrico (5% H2SO4), cloreto férrico (0,1 mol/L FeCl3) e hidróxido de sódio (0,1% NaOH). Os ensaios foram replicados com oito repetições para se ter reprodutibilidade e conhecimento dos aspectos estatísticos envolvidos. Os resultados mostraram que a análise de componentes principais pode ser utilizada como uma ferramenta para analisar sinais de ruído eletroquímico, identificando os clusters dos comportamentos potencial-tempo, corrente-tempo e acessoriamente identificar os outliersdos registros temporais.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The work reported in this thesis aimed at applying the methodology known as metabonomics to the detailed study of a particular type of beer and its quality control, with basis on the use of multivariate analysis (MVA) to extract meaningful information from given analytical data sets. In Chapter 1, a detailed description of beer is given considering the brewing process, main characteristics and typical composition of beer, beer stability and the commonly used analytical techniques for beer analysis. The fundamentals of the analytical methods employed here, namely nuclear magnetic resonance (NMR) spectroscopy, gas-chromatography-mass spectrometry (GC-MS) and mid-infrared (MIR) spectroscopy, together with the description of the metabonomics methodology are described shortly in Chapter 2. In Chapter 3, the application of high resolution NMR to characterize the chemical composition of a lager beer is described. The 1H NMR spectrum obtained by direct analysis of beer show a high degree of complexity, confirming the great potential of NMR spectroscopy for the detection of a wide variety of families of compounds, in a single run. Spectral assignment was carried out by 2D NMR, resulting in the identification of about 40 compounds, including alcohols, amino acids, organic acids, nucleosides and sugars. In a second part of Chapter 3, the compositional variability of beer was assessed. For that purpose, metabonomics was applied to 1H NMR data (NMR/MVA) to evaluate beer variability between beers from the same brand (lager), produced nationally but differing in brewing site and date of production. Differences between brewing sites and/or dates were observed, reflecting compositional differences related to particular processing steps, including mashing, fermentation and maturation. Chapter 4 describes the quantification of organic acids in beer by NMR, using different quantitative methods: direct integration of NMR signals (vs. internal reference or vs. an external electronic reference, ERETIC method) and by quantitative statistical methods (using the partial least squares (PLS) regression) were developed and compared. PLS1 regression models were built using different quantitative methods as reference: capillary electrophoresis with direct and indirect detection and enzymatic essays. It was found that NMR integration results generally agree with those obtained by the best performance PLS models, although some overestimation for malic and pyruvic acids and an apparent underestimation for citric acid were observed. Finally, Chapter 5 describes metabonomic studies performed to better understand the forced aging (18 days, at 45 ºC) beer process. The aging process of lager beer was followed by i) NMR, ii) GC-MS, and iii) MIR spectroscopy. MVA methods of each analytical data set revealed clear separation between different aging days for both NMR and GC-MS data, enabling the identification of compounds closely related with the aging process: 5-hydroxymethylfurfural (5-HMF), organic acids, γ-amino butyric acid (GABA), proline and the ratio linear/branched dextrins (NMR domain) and 5-HMF, furfural, diethyl succinate and phenylacetaldehyde (known aging markers) and, for the first time, 2,3-dihydro-3,5-dihydroxy-6-methyl-4(H)-pyran-4-one xii (DDMP) and maltoxazine (by GC-MS domain). For MIR/MVA, no aging trend could be measured, the results reflecting the need of further experimental optimizations. Data correlation between NMR and GC-MS data was performed by outer product analysis (OPA) and statistical heterospectroscopy (SHY) methodologies, enabling the identification of further compounds (11 compounds, 5 of each are still unassigned) highly related with the aging process. Data correlation between sensory characteristics and NMR and GC-MS was also assessed through PLS1 regression models using the sensory response as reference. The results obtained showed good relationships between analytical data response and sensory response, particularly for the aromatic region of the NMR spectra and for GC-MS data (r > 0.89). However, the prediction power of all built PLS1 regression models was relatively low, possibly reflecting the low number of samples/tasters employed, an aspect to improve in future studies.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The main objective of this work was to monitor a set of physical-chemical properties of heavy oil procedural streams through nuclear magnetic resonance spectroscopy, in order to propose an analysis procedure and online data processing for process control. Different statistical methods which allow to relate the results obtained by nuclear magnetic resonance spectroscopy with the results obtained by the conventional standard methods during the characterization of the different streams, have been implemented in order to develop models for predicting these same properties. The real-time knowledge of these physical-chemical properties of petroleum fractions is very important for enhancing refinery operations, ensuring technically, economically and environmentally proper refinery operations. The first part of this work involved the determination of many physical-chemical properties, at Matosinhos refinery, by following some standard methods important to evaluate and characterize light vacuum gas oil, heavy vacuum gas oil and fuel oil fractions. Kinematic viscosity, density, sulfur content, flash point, carbon residue, P-value and atmospheric and vacuum distillations were the properties analysed. Besides the analysis by using the standard methods, the same samples were analysed by nuclear magnetic resonance spectroscopy. The second part of this work was related to the application of multivariate statistical methods, which correlate the physical-chemical properties with the quantitative information acquired by nuclear magnetic resonance spectroscopy. Several methods were applied, including principal component analysis, principal component regression, partial least squares and artificial neural networks. Principal component analysis was used to reduce the number of predictive variables and to transform them into new variables, the principal components. These principal components were used as inputs of the principal component regression and artificial neural networks models. For the partial least squares model, the original data was used as input. Taking into account the performance of the develop models, by analysing selected statistical performance indexes, it was possible to conclude that principal component regression lead to worse performances. When applying the partial least squares and artificial neural networks models better results were achieved. However, it was with the artificial neural networks model that better predictions were obtained for almost of the properties analysed. With reference to the results obtained, it was possible to conclude that nuclear magnetic resonance spectroscopy combined with multivariate statistical methods can be used to predict physical-chemical properties of petroleum fractions. It has been shown that this technique can be considered a potential alternative to the conventional standard methods having obtained very promising results.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Urban soil quality may be severely affected by hydrophobic organic contaminants (HOCs), impairing environmental quality and human health. A comprehensive study was conducted in two contrasting Portuguese urban areas (Lisbon and Viseu) in order to assess the levels and potential risks of these contaminants, to identify sources and study their behaviour in soils. The concentrations of HOCs were related to the size of the city, with much higher contamination levels observed in Lisbon urban area. Source apportionment was performed by studying the HOCs profiles, their relationship with potentially toxic elements and general characteristics of soil using multivariate statistical methods. Lisbon seems to be affected by nearby sources (traffic, industry and incineration processes) whereas in Viseu the atmospheric transport may be playing an important role. In a first tier of risk assessment (RA) it was possible to identify polycyclic aromatic hydrocarbons (PAHs) in Lisbon soils as a potential hazard. The levels of PAHs in street dusts were further studied and allowed to clarify that traffic, tire and pavement debris can be an important source of PAHs to urban soils. Street dusts were also identified as being a potential concern regarding human and environmental health, especially if reaching the nearby aquatic bodies. Geostatistical tools were also used and their usefulness in a RA analysis and urban planning was discussed. In order to obtain a more realistic assessment of risks of HOCs to environment and human health it is important to evaluate their available fraction, which is also the most accessible for organisms. Therefore, a review of the processes involved on the availability of PAHs was performed and the outputs produced by the different chemical methods were evaluated. The suitability of chemical methods to predict bioavailability of PAHs in dissimilar naturally contaminated soils has not been demonstrated, being especially difficult for high molecular weight compounds. No clear relationship between chemical and biological availability was found in this work. Yet, in spite of the very high total concentrations found in some Lisbon soils, both the water soluble fraction and the body residues resulting from bioaccumulation assays were generally very low, which may be due to aging phenomena. It was observed that the percentage of soluble fraction of PAHs in soils was found to be different among compounds and mostly regulated by soil properties. Regarding bioaccumulation assays, although no significant relationship was found between soil properties and bioavailability, it was verified that biota-to-soil bioaccumulation factors were sample dependent rather than compound dependent. In conclusion, once the compounds of potential concern are targeted, then performing a chemical screening as a first tier can be a simple and effective approach to start a RA. However, reliable data is still required to improve the existing models for risk characterization.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta pesquisa analisa as mudanças geradas após a implantação de um Sistema de Educação a Distância, utilizado como instrumento para a qualificação dos funcionários, na empresa de telecomunicações TELEK, localizada em Porto Alegre - estado do Rio Grande do Sul. Foram analisadas as mudanças sob seis perspectivas, tomando como base o quadro analítico de Paulo Roberto Motta (1997), Perspectiva Estratégica, Perspectiva Estrutural, Perspectiva Humana, Perspectiva Cultural, Perspectiva Política e Perspectiva Tecnológica. Foram coletados dados junto à equipe que dirige o Sistema de Educação a Distância na TELEK, Gerentes de Área da empresa e funcionários que receberam os cursos a distância. Para atingir os objetivos propostos, efetuou-se uma pesquisa survey com a aplicação de um questionário, enviado por e-mail, com um conjunto de questões fechadas com escala de Likert, assim como foram realizadas entrevistas abertas e semi-estruturadas. A análise dos resultados foi de tipo quantitativo, aplicando métodos estatísticos, e de tipo qualitativo, aplicando a análise de conteúdo. A partir dos dados coletados, chegou-se a resultados relevantes referentes às mudanças percebidas em cada uma das perspectivas, tais como: hábitos e costumes, mudanças comportamentais, aquisição de novas habilidades, desenvolvimento de autocontrole, autodesenvolvimento, inovação, postura pró-ativa, assim como resistências e desafios a serem perpassados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O presente estudo enfoca as implicações do ambiente e recursos para a estratégia e a performance, bem como as implicações da estratégia para a performance de empresas industriais em operação em sete estados brasileiros, e analisa a perspectiva determinista e a perspectiva voluntarista na busca de explicações a respeito da associação das variáveis estudadas. Além de uma extensa revisão bibliográfica, o estudo utiliza métodos estatísticos multivariados para reduzir e aferir o grau de associação entre as variáveis selecionadas. A estratégia das empresas é analisada com base na tipologia de Miles e Snow (1978). A performance das empresas é avaliada com base em seis indicadores financeiros e operacionais de ampla utilização em pesquisa sobre administração estratégica [Retorno Sobre Os Investimentos (ROI), Retorno Sobre os Ativos (ROA), Retorno Sobre as Vendas (ROS), Retorno Sobre o Patrimônio Líquido (ROE), Participação de Mercado (PME) e Crescimento das Vendas (CTV)]. Uma moldura conceitual integrando ambiente, recursos, estratégia e performance é proposta e testada por meio de análise de regressão, e seus resultados mostram que estrutura industrial, demografia e internacional são os principais determinantes da estratégia. Estrutura industrial, ambiente nacional, demografia e internacional são os principais determinantes da performance financeira, ao passo que estrutura industrial, demografia, recursos estruturais e recursos primários são os principais determinantes da performance operacional. Por sua vez, a estratégia não apresentou associação com a performance financeira nem com a performance operacional. Os resultados do estudo negam a existência de efeito de mediação da estratégia sobre a relação entre o ambiente e recursos e a performance, tanto financeira como operacional, apesar de existir um forte potencial mediacional. Por outro lado, os resultados confirmam a existência de efeito moderador da estratégia sobre a relação entre o ambiente e recursos com a performance financeira e operacional em relação ao modelo geral e aos recursos primários de maneira especial.