828 resultados para Análise de componentes independentes
Resumo:
Com o advento dos computadores surgiram problemas de saúde associados à tarefa da digitação, causados, principalmente, pela posição estática do corpo, pela repetitividade de movimentos dos membros superiores, pelas forças envolvidas, etc. Na tentativa de relacionar esses fatores com os distúrbios, iniciou-se, na década de 90, o estudo da força aplicada nos teclados de computador. O objetivo principal deste trabalho é desenvolver uma plataforma para medir a força aplicada nas teclas do teclado de um computador durante a digitação, para utilização em biomecânica. Foi projetada e construída uma plataforma de força que mede a força vertical, Fz, (direção z), a força horizontal (e transversal) ao teclado, Fy, (direção y) e o momento aplicado no eixo horizontal e longitudinal ao teclado, Mx, (eixo x). Com estes três componentes é possível, numa análise bidimensional (2D), determinar a magnitude do vetor força resultante, seu ângulo com plano horizontal e o ponto de aplicação sobre a superfície da tecla. Os sensores utilizados foram os extensômetros de resistência elétrica, colados em placas que deformam-se principalmente por flexão; estes sensores são ligados em ponte completa de Wheatstone para cada canal de aquisição, Fx, Fy e Mx. Foi construído um modelo em madeira, PVC e acrílico, na escala 4,5:1, para auxiliar na busca de soluções de problemas de construção. Com o objetivo de aperfeiçoar o modelo conceitual criado, utilizou-se modelamento numérico (elementos finitos) Os sinais adquiridos para cada canal são independentes, não necessitando de operações posteriores. O sistema de aquisição é composto por um computador para armazenar e posteriormente tratar matematicamente os dados coletados, por uma placa de aquisição (A/D) de dados, um condicionador de sinais e o programa SAD 2.0 para aquisição e processamento de dados. A linearidade da plataforma de força permaneceu dentro dos limites de 3 % durante a calibração estática. Os testes dinâmicos mostraram que a plataforma possui freqüência fundamental superior a 2300 Hz, o que permite que ela seja utilizada com segurança para a análise de forças aplicadas durante a digitação.
Resumo:
O presente trabalho analisa e sistematiza os procedimentos e a metodologia empregada na elaboração dos Custos Rodoviários, com ênfase no Estado do Rio Grande do Sul. Inicialmente, são feitas considerações sobre os investimentos em infra-estrutura rodoviária e a sua evolução até as concessões à iniciativa privada. Em relação aos aspectos econômicos, são abordados os Custos Totais de Transportes, o Custo Brasil, o ABC e o Preço Sombra. É apresentada a conceituação dos componentes dos custos unitários de construção de rodovias: equipamentos, mão-de-obra, materiais e seu transporte. São abordadas as características a serem adotadas em pesquisa de preços dos insumos. São mensurados os parâmetros empregados, comparando os Encargos Sociais e as Bonificações e Despesas Indiretas utilizados no DAER/RS e em outros Estados e órgãos brasileiros. Finalmente, através de um modelo de regressão múltipla, é apresentada estimativa de custo por quilômetro de construção de rodovias, considerando dados de diversas obras do Estado do Rio Grande do Sul.
Resumo:
A informação é hoje um dos principais recursos nos ambientes de trabalho. A informação compreendida habilita as pessoas e as organizações a atingir seus objetivos e a adquirir conhecimento. Entretanto, pouco se sabe sobre como a informação é utilizada e como os trabalhadores de conhecimento aprendem durante a realização de suas atividades. Entender a natureza do trabalho de conhecimento e torná-lo produtivo é um desafio. Esta pesquisa analisa os modelos conceituais de processo de trabalho de conhecimento encontrados na literatura, que identificam formas de aumentar a produtividade do trabalhador mapeando os estímulos do ambiente externo e observando as atividades realizadas e os resultados produzidos. Entretanto, os modelos dão pouca atenção ao processo cognitivo utilizado pelo trabalhador de conhecimento. Nesta pesquisa, propõe-se a ampliação dos modelos existentes, contemplando a atividade cognitiva no processo e o conhecimento no resultado. A abordagem é baseada na utilização da informação como recurso e como produto. Os objetivos deste trabalho são compreender melhor a forma como é utilizada a informação por trabalhadores de conhecimento e verificar como diferentes níveis de complexidade de informação influenciam o processo de trabalho e os resultados produzidos. Para testar os componentes do modelo proposto, bem como as suas relações, foi realizado um experimento com analistas de investimento que, a partir de um cenário, avaliam uma empresa. Os resultados obtidos revelaram a aderência do modelo conceitual proposto à realidade. Tanto no modelo como na atividade investigada, o processo de trabalho mostrou-se complexo e dinâmico, onde o uso e a produção de informações foi constante. O mapeamento do processo de análise de investimentos identificou o foco do trabalho na capacidade do analista gerenciar as informações e produzir conhecimento. A complexidade das informações foi identificada como um fator de influência sobre o seu uso e sobre o desempenho do analista, mas condicionadas a que essas informações fossem antes interpretadas e percebidas como relevantes.
Resumo:
pós-infarto agudo do miocárdio (IAM) têm mostrado baixo valor preditivo positivo quando estudados isoladamente. A possibilidade da Eletrocardiografia Dinâmica de 24 horas (ECGD) fornecer dados referentes a isquemia silenciosa (IS), arritmias ventriculares e modulação autonômica do coração pelo estudo da variabilidade da freqüência cardíaca (VFC), levou o autor a empregar este método em pacientes acometidos de IAM com o objetivo de avaliar se estas três variáveis estariam relacionadas a presença de eventos desfavoráveis em evolução a médio prazo. Material e Métodos – Foram selecionados 91 pacientes acometidos de um primeiro IAM não-complicado e realizados exames de ECGD de 24 h por dois dias consecutivos, antes da alta hospitalar. Os parâmetros pesquisados nos exames foram: isquemia silenciosa, identificação e quantificação de arritmias ventriculares e determinação dos índices de VFC pelos métodos do domínio do tempo e do mapa de retorno tridimensional. Foram considerados como desfechos: re-infarto, angina instável, taquicardia ventricular sustentada e morte. Resultados – No seguimento médio de 27,7 meses (DP=15,45), 23 (25%) dos pacientes apresentaram eventos, sendo nove fatais. Os eventos foram mais freqüentes entre os pacientes que apresentaram extra-sístoles ventriculares ≥10/hora (p=0,01) e também naqueles com IS (p=0,02). Em modelo de análise multifatorial, a presença de dislipidemia elevou o valor preditivo positivo dessas variáveis. Nenhum dos índices de VFC esteve significativamente relacionado ao surgimento de eventos. Conclusões – Em pacientes pós-IAM de baixo risco, a presença de arritmias ventriculares freqüentes ou de isquemia silenciosa está relacionada a um prognóstico desfavorável. O estudo da VFC não mostrou utilidade na estratificação de risco destes pacientes.
Resumo:
Para a análise estática e dinâmica, linear e não-linear de placas, cascas e vigas, implementa-se neste trabalho o elemento hexaédrico com integração reduzida, livre de travamento volumétrico e travamento de cisalhamento e que não apresenta modos espúrios. Na formulação do elemento, utiliza-se apenas um ponto de integração. Desta forma, a matriz de rigidez é dada de forma explícita e o tempo computacional é significativamente reduzido, especialmente em análise não-linear. Os modos espúrios são suprimidos através de um procedimento de estabilização que não exige parâmetros especificados pelo usuário. Para evitar o travamento de cisalhamento, desenvolve-se o vetor de deformações num sistema co-rotacional e remove-se certos termos não constantes nas componentes de deformações de cisalhamento. O travamento volumétrico é resolvido fazendo-se com que a parte dilatacional (esférica) da matriz gradiente seja avaliada apenas no ponto central do elemento. Como a eliminação do travamento de cisalhamento depende de uma abordagem no sistema local, emprega-se um procedimento co-rotacional para obter o incremento de deformação no sistema local e atualizar os vetores de tensões e forças internas na análise não-linear Para a solução das equações de equilíbrio na análise estática, utilizam-se métodos diretos baseados na eliminação de Gauss ou métodos iterativos de Gradientes Conjugados Precondicionado elemento-por-elemento (EBE). Para a análise dinâmica, as equações de equilíbrio são integradas através do método explícito de Taylor-Galerkin ou do método implícito de Newmark. Através de exemplos numéricos demonstra-se a eficiência e o potencial do elemento tridimensional na análise de casca, placas e vigas submetidas a grandes deslocamentos e grande rotações. Os resultados são comparados com trabalhos que utilizam elementos clássicos de placa e casca.
Resumo:
Empresas de manufatura alocam uma grande quantidade de recursos no projeto de produtos confiáveis. Quando adequadamente projetados, tais produtos apresentam um número mínimo de falhas operacionais durante seu período de garantia e, de forma geral, durante sua vida útil. Falhas incorridas durante o período de garantia do produto implicam em custos indesejáveis. Assim, a incidência dessas falhas, bem como sua natureza, são normalmente registradas pelas empresas, na busca de informações que permitam aprimorar o projeto de produtos. Modelos de confiabilidade apropriados para estudos de engenharia são freqüentemente desenvolvidos a partir da análise de informações de desempenho em campo dos produtos de interesse. Esta dissertação propõe e exemplifica uma metodologia de análise de confiabilidade de produtos manufaturados, utilizando as informações disponíveis de volume produzido em um período de tempo e dados de tempos-até-falha obtidos da utilização da garantia do produto analisado. Como aplicação, foi realizada a modelagem da distribuição de confiabilidade de um modelo de aparelho condicionador de ar individual. Além da definição do modelo de distribuição da confiabilidade do produto e seus parâmetros, foram identificados os componentes críticos do sistema, os quais apresentam maior impacto sobre a confiabilidade do produto, quando ocorre melhoria de suas distribuições individuais de confiabilidade O trabalho apresenta, também, uma introdução sobre a teoria e princípio de funcionamento de unidades condicionadoras de ar, bem como uma revisão sobre os conceitos teóricos de confiabilidade, estimativas de parâmetros de modelos de distribuições, métodos de modelagens de distribuições e avaliação de confiabilidade utilizados na metodologia proposta.
Resumo:
Devido a um mercado automotivo altamente competitivo e globalizado, as empresas buscam aperfeiçoar cada vez mais seus produtos, investindo em pesquisa e desenvolvimento em busca de produtos melhores, mais seguros e mais confiáveis. Dentro desse contexto, procurou-se aprofundar os estudos sobre fadiga e fadiga de contato, a fim de se obter um embasamento teórico sobre as possíveis causas de trincas e suas conseqüências, em componentes submetidos a esforços cíclicos e a temperaturas elevadas. Importante é salientar que as altas temperaturas resultam em transformações estruturais no ferro fundido. Posteriormente a esse embasamento teórico, realizou-se um caso de estudo (tambor de freio), buscando subsídios e informações sobre freios, tambores de freios e sobre materiais utilizados em sua fabricação. Sobre ele diversos tipos de análise foram realizados; análises de tensões, análises metalográficas em corpos de prova com e sem trinca e simulações da previsão da vida em fadiga, utilizando o modelo de Paris em programas matemáticos. Paralelos a esses estudos, foram realizados testes de eficiência em dinamômetro utilizando diferentes materiais. Foram utilizados componentes em Ferro Fundido Cinzento e em Ferro Fundido Vermicular a fim de se poder avaliar o comportamento dos materiais em aplicações em que se tem a fadiga de contato. Finalmente, são apresentados os resultados das análises e dos testes realizados, fazendose uma discussão acerca dos mesmos, sendo então apresentadas às conclusões e as sugestões para estudos futuros.
Resumo:
O presente trabalho visa definir um modelo de alocação dos recursos da produção para centros de trabalho em sistemas baseados em job shop, usando a abordagem heurística para garantir uma boa alocação dos recursos. São levados em conta a complexidade de um ambiente de produção, seus aspectos temporais e os modelos de Job Shop Scheduling atualmente em uso. Com isso são examinados os aspectos conceituais deste ambiente e proposto um modelo de alocação de recursos para auxiliar no planejamento operacional do mesmo. Pode-se definir os recursos como todos os elementos necessários à execução das diversas atividades de um processo produtivo, tais como equipamentos, máquinas, mão-de-obra, etc. Por sua vez, os recursos são limitados por natureza, quanto à quantidade de unidades disponíveis, às suas funcionalidades e à capacidade produtiva. O processo de alocação dos recursos pressupõe a designação dos recursos mais satisfatórios para a execução de cada uma das atividades que fazem parte de um projeto. O modelo proposto é baseado no uso de heurísticas para resolver o escalonamento nos centros de trabalho, também chamados de células de produção, usando restrições e regras entre as ordens de fabricação (peças) e as máquinas, para encontrar uma solução satisfatória ao problema. O resultado final é uma ferramenta de apoio à decisão no processo de manufatura, permitindo a visualização do melhor escalonamento de produção, visando a redução do ciclo e setup de produção no processo, com base nas informações locais do ambiente fabril. O sistema está implementado numa empresa de componentes hidráulicos, inicialmente no centro de trabalho de corte, composto por quatro máquinas que realizam o corte de diversos tipos de matérias-primas.
Resumo:
Este trabalho tem por objetivo avaliar as manifestações patológicas decorrentes de insucesso na impermeabilização de laje de cobertura plana horizontal que ocorrem em função da forma como a etapa de projeto é desenvolvida. A metodologia consistiu em proceder pesquisa de campo com o propósito de avaliar a formação técnica dos profissionais que atuam nesta área específica da construção civil. A estratégia adotada foi a de, inicialmente, com o auxílio do Ministério de Educação e Cultura, cadastrar as Faculdades de Engenharia Civil e Arquitetura das principais Universidades Públicas e Privadas brasileiras. Posteriormente foi feita investigação dentre as empresas construtoras da Região da Grande Porto Alegre que, amiúde, contratam prestadoras de serviços de impermeabilização para execução de suas obras, e empresas prestadoras de serviços sediadas na mesma região, procurando identificar quais seus procedimentos em relação à NBR 9575/98 - "Projeto de Impermeabilização". A aplicação dos conhecimentos obtidos da revisão bibliográfica, e posterior sistematização dos conceitos e das recomendações ditadas pela Norma supra referida, tornou possível, através da realização de trabalho de campo, constatar casos de desconhecimento e não observância daquelas diretrizes e, fruto desta desatenção, a contribuição para o surgimento de patologias de impermeabilização. Por último, foi produzido um software (CD-ROM) com o propósito de ensinar de forma didática, através de informações audiovisuais, as técnicas de aplicação e a identificação dos componentes do sistema de impermeabilização, orientando na escolha das alternativas mais adequadas, de acordo com as normas vigentes.
Resumo:
As empresas, cada vez mais, buscam a redução de custo, para serem mais competitivas. A necessidade de aumentar a vida útil dos equipamentos, através de técnicas apropriadas é prioritário para manutenção dos ativos. Neste trabalho estudou-se o método para implantação da análise e monitoramento da vibração em equipamentos rotativos, com base nos conceitos da manutenção centrada em confiabilidade, usando técnicas preditiva e pró-ativa de manutenção pela condição, com foco na tarefa. Primeiramente foi analisado o comportamento dos componentes em relação ao processo de falha, como as falhas atuam, os tipos de modos de falha, falhas funcionais e seus efeitos. Após foram analisados e selecionados os critérios de níveis de vibração para os equipamentos rotativos em função da potência e rotação. Também, foi determinado em que condições os espectros seriam analisados em função da amplitude e freqüência de rotação. Então, foram preparados os locais para coletas dos dados de vibração. Assim, os níveis de vibração global foram coletados em função das amplitudes, em cada posição específica do equipamento em seu plano. Isto faz com que, análise dos níveis globais de vibração e o diagnóstico através do espectro e a forma de onda, permitissem encontrar a causa do problema. Finalmente, são apresentados os resultados em níveis de amplitude, espectro após ações, a correção da causa do problema e os tipos de defeitos de tendência de falhas e a implementação do método.
Resumo:
Esta dissertação consiste no estudo das condições de trabalho e proposta de melhorias da Divisão de Usinagem da empresa John Deere, unidade de Horizontina, RS. A Divisão é responsável pelo processamento de peças de aço e ferro fundido, componentes de plantadeiras, colheitadeiras e tratores. O trabalho, inicialmente concebido dentro do sistema taylorista-fordista de produção, envolve esforço fisico, principalmente estático, durante operações em diversas máquinas ferramentas (tomos, fresas, furadeiras etc). A partir de 2000, com a instalação do Comitê de Ergonomia (COERGO) da empresa e a utilização da abordagem participativa da Análise Macroergonômica de Trabalho (AMT), proposta por Guimarães (1999), foram identificadas, priorizadas e quantificadas, por meio de questionário não obrigatório, respondido por quase a totalidade da Divisão, as demandas ergonômicas para melhoria das condições de trabalho. Ao final de, aproximadamente, dois anos e meio, foram reavaliadas, por meio de um segundo questionário, as modificações feitas no ambiente (instalação de ventiladores; redução de aerodispersóides pela substituição de produtos químicos; redução de ruído e melhoria de iluminação), em postos de de trabalho (modificação do leiaute, instalação de dispositivos de manuseio e movimentação de carga; redesenho de bancadas e dos locais de armazenamento de materiais); e na organização do trabalho da Divisão (alargamento e enriquecimento do trabalho pela celularização do trabalho) De um modo geral, houve um aumento da satisfação dos funcionários com todas as modificações efetuadas, à exceção daquelas que sofreram apenas intervenção parcial (por exemplo, o sistema de ventilação). As melhorias repercutiram não só no aumento de satisfação, bem como, na postura dos trabalhadores com relação ao seu trabalho (pois se mostraram mais críticos e exigentes em função da participação no processo de melhorias) bem como redução de índices de sucata e retrabalho na Divisão, evidenciando que é possível atender as exigências impostas por um mercado competitivo e globalizado, sem que haja prejuízo dos fatores humanos envolvidos nesse processo de produção.
Resumo:
Na utilização de variados tipos de financiamento, a empresa necessita, primariamente, da análise do custo do capital - custo básico para remuneração dos recursos próprios e de terceiros que compõem a estrutura de capital - o qual deve ser a taxa referencial para haver retorno do investimento e geração_ de valor, emergindo, por conseguinte, a discussão acerca da repercussão do nível de endividamento, e, conseqüentemente, do custo de capital sobre o valor da empresa. Nesse contexto, existem modelos que consideram o endividamento irrelevante no valor da empresa, como: análise pelo Lucro Operacional ou de Modiglianni e Miller sem Imposto de Renda. Em outro extremo, há abordagens que o têm como função direta para o valor, como a do Lucro Líquido e de Modigliani e Miller com imposto de renda. Entre essas posições antagônicas podem ser citadas a posição Tradicional e do Custo de Dificuldades Financeiras, que admitem a influência do endividamento após determinado nível de alavancagem. A Teoria da Informação Assimétrica, por sua vez, sustenta ser a sinalização enviada com mudanças na estrutura de capital fator de influência no valor da empresa. No modelo de avaliação por Opções, argumenta-se que, dentro de determinadas hipóteses, a riqueza dos acionistas é incrementada por uma alavancagem financeira mais elevada. A avaliação em situação de incerteza para a empresa é refletida no modelo que utiliza o Capital Asset Price Model, onde argumenta-se que um aumento no endividamento eleva o beta e, conseqüentemente, o retorno esperado. Por último, há a análise baseada em fluxos de caixa onde o valor presente da empresa é adicionado ao valor presente líquido dos efeitos intrínsecos ao financiamento. O cálculo do valor da empresa também pode ser feito através do fluxo de caixa do acionista descontado pela taxa de remuneração do capital próprio ou fluxo operacional descontado pelo custo médio ponderado do capital, subtraindo o valor do endividamento. Este trabalho se propôs a analisar, durante o período 1994-1998, a relação do endividamento com o custo médio ponderado do capital e com valor de mercado de oito empresas, componentes de amostra representativa do setor siderúrgico brasileiro, e também a estimar o valor do capital próprio, através do modelo de desconto do fluxo de caixa operacional pelo custo médio ponderado do capital, verificando a aderência dessa avaliação, através de comparação com o valor de mercado observado. Pela análise dos resultados observamos, uma relação inversa entre custo médio do capital e endividamento. No que se refere à avaliação da empresa, o modelo apresentado de desconto pelo custo médio ponderado do capital, revelou-se de modo geral, satisfatório, com o valor estimado explicando 68% do valor de mercado, na análise da regressão; sendo que as maiores distorções foram verificadas nas empresas que tiveram grau de alavancagem elevado.
Resumo:
Fundamentos: A literatura tem demonstrado que a detecção precoce e a remoção cirúrgica em fases iniciais reduz a mortalidade do melanoma e que, em conseqüência, a identificação do melanoma em fases curáveis deve ser encorajada. Objetivos: O interesse principal do estudo foi conhecer se os melanomas cutâneos, no meio, estão sendo diagnosticados em fases iniciais, através de método reprodutível e armazenável. Metodologia: Foi realizado um estudo transversal com os casos de melanomas cutâneos primários, analisados nos laboratórios de patologia de Porto Alegre, de 1° de janeiro de 1994 a 30 de junho de 1995, a fim de avaliar se os diagnósticos foram realizados em estágios precoces. Os casos foram revisados por três dermatopatologistas, que classificaram quanto ao tipo histológico e quanto ao nível de invasão de Clark. Foi realizado um consenso com pelo menos duas concordâncias. A espessura de Breslow foi considerada fator prognóstico determinante e foi medida através de um sistema de análise de imagem computadorizada, por dois membros da equipe. Resultados: Do total de 279 casos que preencheram os critérios de inclusão, 2,15% eram intraepiteliais. Dos melanomas invasivos, 52% tinham espessura ≤ 1,5 mm. Quando agrupado por sexo e procedência, as mulheres de Porto Alegre, capital do estado do Rio Grande do Sul, tiveram a mais alta taxa de diagnóstico precoce (75% ≤ 1,5 mm). O tronco foi o sítio predominante no homem e freqüente na mulher. O melanoma de espalhamento superficial foi o tipo histológico mais freqüente (80,9%), seguido pelo nodular (10,1%). Para definir os determinantes do diagnóstico precoce, foram realizados cruzamentos simples, dos melanomas intraepiteliais somados aos de espessura <0,76 mm, com o sexo, a idade, a procedência, a situação previdenciária, a região anatômica e o tipo histológico. A análise de variáveis múltiplas demonstrou que apenas o sexo (feminino), o sítio anatômico (outras regiões exceto membros inferiores) e a procedência (Porto Alegre) mostraram-se variáveis independentes para determinar um diagnóstico precoce. A idade ≥ 40 anos apresentou significância próxima ao limite. O tipo histológico foi excluído do modelo, uma vez que gerou instabilidade estatística. Conclusão: Embora o número de casos fosse pequeno, o diagnóstico do melanoma ainda é tardio (52% com até 1,5 mm de espessura). Entretanto, existe um subgrupo de diagnóstico precoce que são mulheres, sobretudo de Porto Alegre, possivelmente por estarem mais atentas e informadas sobre os riscos do melanoma. As mudanças no estilo de vida, nas últimas décadas, provavelmente são responsáveis pela maior incidência no tronco e pela alta freqüência de melanoma de espalhamento superficial encontrada. A análise da espessura tumoral por projeção em tela de computador mostrou-se um recurso auxiliar vantajoso.
Resumo:
As particularidades encontradas na modelagem de bancos de dados geográficos tornam necessário o desenvolvimento de modelos específicos. A totalidade dos modelos desenvolvidos oferece recursos para a modelagem de aspectos estáticos. Alguns dos modelos apresentam soluções parciais para a modelagem de aspectos dinâmicos. A possibilidade de executar processos de análise geográfica, que alteram o estado dos componentes do banco de dados geográficos é, de forma geral, a maior motivação para justificar os investimentos necessários para a sua construção. A formalização desses processos em um modelo conceitual, na fase de projeto, torna desnecessário o uso da terminologia específica que cada software de SIG emprega. A solução desenvolvida estende um framework conceitual (GeoFrame) com uma semântica que suporta a expressão de processos de análise geográfica, mantendo compatibilidade com a linguagem UML. Para utilizar de forma adequada os recursos do framework, uma metodologia para a elaboração do modelo do usuário é indicada. Nessa metodologia, os processos são identificados a partir da elaboração de diagramas de casos de uso e atividades, incorporados no diagrama de classes e detalhados através de diagramas de atividades contendo ações. Um levantamento sobre operações utilizadas em processos de análise geográfica abrangendo a visão conceitual, lógica e de implementação de vários autores levou à construção de um catálogo de operações geográficas. Essas operações foram modeladas utilizando os elementos de modelagem de comportamento da especificação da UML, versão 2.0. O conjunto de recursos oferecidos nesse trabalho proporciona ao projetista de bancos de dados geográficos o desenvolvimento de uma especificação em alto nível e abrangente, utilizando a linguagem UML, reconhecida como padrão em modelagem de sistemas.
Resumo:
Esta pesquisa investigou a variabilidade da taxa de crescimento das empresas, associando-a a grupos de fatores como os associados ao ramo de negócios, ao período ou ano em que se observa o crescimento, ao país e, finalmente, o grupo de fatores associado à empresa individual de forma idiossincrática. O trabalho inspirou-se na linha de pesquisa de componentes de variância do desempenho financeiro em estratégia usando o crescimento como variável dependente. Os achados indicam que a firma individual é a responsável pela maior parte da variância observada nas taxas de crescimento. País e ano também são fontes de variação relevantes. O ramo de negócios no qual a firma está inserida, contudo, tem uma pequena relevância na explicação da variabilidade. O trabalho usou a base de dados Compustat Global como fonte principal. Os resultados têm implicações tanto para a gestão de empresas ao nível corporativo como para a criação de políticas de desenvolvimento e crescimento. Esta pesquisa fez uma avaliação de uma amostra internacional para poder avaliar o efeito país, mas abre espaço para vários outros estudos mais profundos, com maior foco na realidade brasileira.