999 resultados para Proposta para automatizar
Resumo:
Este estudo examinou empiricamente a capacidade de explicar o retorno das ações a partir de um conjunto de indicadores utilizados em processos de avaliação de empresas negociadas na BOVESPA. Os indicadores foram selecionados considerando critérios de disponibilidade das informações e facilidade no cálculo. Desta forma, utilizaram-se indicadores disponibilizados pelo software da Economática, totalizando nove indicadores financeiros (derivados das contas dos demonstrativos financeiros), e seis múltiplos de mercado (derivados da combinação das contas dos demonstrativos financeiros com a cotação ou valor da firma). De modo geral, todos os resultados apresentaram baixas correlações e R2 reduzido. Porém, pode-se analisar os indicadores e seus grupos e classifica-los de acordo com seu conteúdo informacional absoluto (regressões simples) e de acordo com seu conteúdo informacional incremental (regressões múltiplas). Os indicadores de rentabilidade apresentaram os melhores resultados tanto para o conteúdo informacional absoluto quanto para o incremental, destacando- se o ROA e o ROE, seguidos pelo múltiplo de patrimônio, Ppatrim. Na 3a posição do conteúdo informacional absoluto, veio o indicador de estrutura de capital, Exi_Ati e na 4a, os múltiplos de lucro, FVEbitda, FVLucro, Pebitda e Plucro. De forma inversa, o conteúdo informacional incremental, teve o múltiplo de lucro, Plucro, na 3a posição e o indicador de estrutura de capital na 4a posição. Os indicadores de ciclo financeiro, o múltiplo de vendas e os indicadores de liquidez vieram na 5a, 6a e 7a posições para o conteúdo informacional absoluto e não foram avaliados para o conteúdo informacional incremental devido a sua baixa performance. Com base nos resultados obtidos, conclui-se que os indicadores financeiros e múltiplos de mercados podem e devem ser usados como suporte à decisão de investir ou não em uma ação, mas, não como forma única de avaliação. Obviamente, devem ser priorizados sempre os indicadores que tem um maior poder em explicar o comportamento do retorno das ações.
Proposta de modelo de geração de valor substancial e estratégia de crescimento acelerado em startups
Resumo:
A importância das startups para a dinamização e geração de valor na economia é inquestionável, e em decorrência disto é igualmente importante a criação de ferramentas que suportem o crescimento destas empresas. O presente trabalho propõe um modelo que descreve o processo de geração de valor significativo a partir de startups que obtêm grandes taxas de crescimento, bem como uma estratégia genérica para que estas atinjam taxas de crescimento acelerado. No modelo de geração de valor são propostas dimensões fundamentais para analisar o processo de crescimento (dimensões de Contexto; Mercado; Organização e Indústria), que podem ser utilizadas para facilitar a análise do processo e suas restrições. Na proposta de Estratégia de Crescimento Acelerado é descrita uma configuração estratégica para que as startups viabilizem crescimento acelerado através dos seguintes elementos: proposta de inovação de valor; time de empreendedores com experiência na indústria e em vendas; visão de crescimento explícita e compartilhada; políticas de incentivos financeiros e opções de ações; alavancagem através da captação de recursos e a entrada no mercado na fase de crescimento. A proposta teórica foi estruturada com base em revisão bibliográfica, na análise crítica do autor e em sua experiência, com o objetivo de propor uma estratégia e um referencial que aumentem as chances de crescimento de startups. Ao final do trabalho, o modelo proposto foi aplicado ao planejamento estratégico de uma startup pelo autor e os resultados preliminares são comentados na conclusão.
Resumo:
Analisa o comportamento dinâmico de cadeias de distribuição genéricas e de uma cadeia específica. Avalia o motivo pelo qual o sistema de Estoque Gerido pelo Fabricante, EGF ou VMI, não apresenta os resultados esperados em determinadas situações. Propõe um novo modelo de gerenciamento da cadeia de abastecimento, coordenado pelo Distribuidor, o Estoque Gerido pelo Distribuidor, EGO ou DMI. Analisa o resultado desta nova proposta sob os aspectos estratégico, dinâmico e econômicofinanceiro
Resumo:
Propõe um modelo de Benchmarking para uma Unidade de Negócios da Petrobrás baseado em uma ampla pesquisa bibliográfica sobre o tema e com ênfase na prevenção de falhas que normalmente comprometem a eficácia das iniciativas de benchmarking. O modelo aborda desde as etapas iniciais de preparação da empresa pela alta administração, passando pela identificação e pnonzação das oportunidades de benchmarking, pela constituição e treinamento da equipe de benchmarking, pelo benchmarking interno e pelo autoconhecimento dos seus próprios processos, pela investigação e descoberta das melhores práticas onde quer que estejam, pela aprovação e implantação dos projetos de melhoria, pela atualização sistemática dos referenciais de desempenho, chegando até a avaliação das ações de melhoria implantadas e do próprio processo de benchmarking.
Resumo:
Com intenção de contribuir para os estudos sobre gestão da cadeia de suprimentos, esta dissertação teve como objetivo propor uma sistemática para a análise da cadeia de suprimentos de empresas agroindustriais. Através da revisão bibliográfica, no primeiro momento, buscou-se, entender a atual situação do setor vitin´cola nacional, após foi feita uma abordagem sobre arranjos empresariais, destacando-se as unidades de análise de empresas e a gestão da cadeia de suprimentos, onde foi enfocado o mapeamento da cadeia de suprimentos e a governança dentro dela e, por fim, foram abordados os conceitos de estratégia e competitividade. Fundamentada na literatura pesquisada foi proposta uma sistemática, que baseia no detalhamento da cadeia de suprimentos, na identificação dos principais gargalos da cadeia de suprimentos imediata desta empresa. A sistemática foi aplicada em uma empresa produtora de vinhos espumantes da Serra Gaúcha. Constatou-se que a aplicação da sistemática possibilita para a empresa, além da identificação dos seus gargalos, a priorização destes, podendo ser utilizada para a tomada de açãoes de melhoria. Por fim, conclui-se que a sistemática proposta pode ser estendida a qualquer empresa agroindustrial e aplicada por qualquer grupo ou executivo, pertencentes ou não ao quadro da empresa.
Resumo:
Esta dissertação apresenta uma proposta de revisão do modelo de avaliação de desempenho de fornecedores de uma empresa industrial do setor automotivo. O assunto em estudo busca preencher uma lacuna no sentido de padronizar o processo de mensuração de desempenho na cadeia de suprimentos do setor de autopeças. Tal modelo tem o objetivo de viabilizar para a empresa uma visão clara do progresso dos sub-contratados nos requisitos de medição operacional considerados chave para a organização. Para o desenvolvimento do trabalho, foi inicialmente realizada uma revisão bibliográfica a respeito do assunto. Na seqüência, fez-se o detalhamento do estudo de caso, elaborando após, a proposta de revisão do modelo atual alinhada ao perfil da empresa. Com isto, foi possível identificar os indicadores mais relevantes para a empresa, a sistemática mais adequada para sua utilização, assim como o processo de realimentação aos provedores.
Resumo:
Nos últimos anos a competição mundial aumentou significativamente o que tem levado a uma maior pressão por flexibilidade nas operações das empresas. Isso causou a mudança das estruturas burocráticas verticais para a organização horizontal, modificando o paradigma prévio, de que a competição se dava entre unidades de negócios. O modelo burocrático tradicional de organização tem se mostrado esgotado, assim a formação de redes de empresas tem possibilitado a emergência de novos modelos organizacionais mais flexíveis. A estratégia de operações, historicamente focada em unidades de negócios, se tornou um campo profícuo para uma nova análise das práticas e modelos existentes. Como a criação e entrega de valor são imprescindíveis para a sobrevivência das redes interfirmas, supõe-se que o valor percebido pelo cliente está conectado com o projeto das organizações em rede. Essa tese propõe, portanto, categorizar as redes simultâneas nas quais as firmas estão inseridas e apresentar uma abordagem metodológica para a investigação da relação entre o valor percebido pelo cliente e o projeto da rede de negócios. Com esse objetivo é conduzido um estudo qualitativo e explanatório das redes simultâneas dentro do campo da estratégia de operações. As conclusões sugerem que o projeto da rede de negócios pesquisada reflete a percepção de valor pelo cliente
Resumo:
Esta tese tem como objetivo propor um modelo de gestão para as organizações que participam de clusters ecoturísticos. Os arranjos produtivos locais têm se destacado crescentemente como forma de se buscar vantagens das economias de concentração, não apenas no setor secundário, mas também como disposições locais e regionais mais produtivas para o setor de serviços. O turismo tem crescido nas últimas décadas, tanto nos seus moldes tradicionais de massa, como principalmente na suas novas formas, assim chamadas de alternativas. Uma destas categorias que têm se destacado na preferência de alguns segmentos da demanda turística é o ecoturismo, acompanhando a tendência de aumento do grau de conscientização ambiental e da busca por ambientes que proporcionem contato mais estreito com a natureza. As características sistêmicas do serviço turístico, abrangendo dos pontos de emissão até o destino dos turistas, sugerem a necessidade de um modelo de gestão mais adequado à sua complexidade. A estas condições gerais do sistema turístico, acrescentam-se peculiaridades dos clusters ecoturísticos, pelas restrições ambientais e pela intensificação das relações entre os agentes participantes da prestação desta categoria especial de turismo. A metodologia utilizada no trabalho foi o estudo comparativo de casos múltiplos, compreendendo clusters ecoturísticos formados nas localidades de Bonito ¿ MS, Brotas ¿ SP e o Parque Estadual da Ilha do Cardoso, na região de Cananéia.
Resumo:
Em 1985, Mehra e Prescott levantaram uma questão que até hoje não foi respondida de forma satisfatória: o prêmio de risco das ações americanas é muito maior do que poderia ser explicado pelo “paradigma neoclássico de finanças econômicas” (financial economics) representado pelo modelo C-CAPM. E, a partir de então, este problema não resolvido ficou conhecido como o “Equity Premium Puzzle” (EPP) ou o “Enigma do Prêmio (de risco) das Ações”. Este enigma estimulou a produção de uma série de artigos, dissertações e teses que tentaram ajustar os modelos intertemporais de utilidade esperada aos dados dos mercados financeiros. Dentro deste contexto, esta tese busca (i) revisar a evolução histórica da teoria dos modelos de maximização da utilidade intertemporal dos agentes, (ii) analisar os pressupostos e conceitos chaves desses modelos, (iii) propor um novo modelo que seja capaz de solucionar o EPP, (iv) aplicar este modelo proposto aos dados históricos anuais entre 1929 e 2004 e (v) validar a lógica deste modelo através das metodologias Mehra-Prescott e Hansen-Jagannathan. Esta tese faz uma crítica de que os estudos até aqui desenvolvidos tentaram explicar a dinâmica de um mercado financeiro altamente sofisticado, através de um modelo de economia não-monetária e de subsistência. Assim, a sua contribuição consiste na alteração desse pressuposto de uma economia de subsistência, considerando que a renda disponível do setor privado não seja integralmente consumida, mas que também possa ser poupada. Assumindo que as pessoas obtêm satisfação (utilidade) tanto pelo consumo atual como pela poupança atual (que será o consumo futuro), será deduzido que a utilidade marginal de consumir é igual à de poupar, em todo e qualquer período. Com base nisso, a utilidade marginal a consumir é substituída pela utilidade marginal de poupar dentro do modelo básico do C-CAPM. Para reforçar a idéia de que o modelo desta tese usa dados de poupança em vez de consumo, ao longo do trabalho ele será chamado de Sanving-CAPM, ou S-CAPM. Este novo modelo mostrou-se capaz de solucionar o EPP quando submetidas às abordagens Mehra-Prescott e Hansen-Jagannathan.
Resumo:
Um dos temas centrais dentro teoria organizacional é a explicação da relação organização-ambiente. Os primeiros estudos da vertente sociológica do novo institucionalismo contribuíram para este entendimento, especialmente ao explicitar como o isomorfismo surge dentro de campos organizacionais. Esta abordagem permitiu um novo entendimento sobre o papel do significado na produção e reprodução das práticas sociais. Entretanto, desde seu início, alguns de seus proponentes e críticos têm se preocupado com a forma obscura com que o novo institucionalismo trata a ação social e o papel dos atores na criação, difusão e estabilização das práticas organizacionais. Este estudo apresenta um modelo conceitual abrangente que explique as variações dentro de campos organizacionais ao incluir novos elementos à abordagem do novo institucionalismo, especialmente a discussão da relação dos níveis macro-micro e da incorporação de diferentes elementos tratados de maneira fragmentada dentro do novo institucionalismo. O modelo apresenta três fases de construção do campo organizacional, com foco inicial em um evento social que funciona como um gatilho do processo de institucionalização, conduzido por atores sociais chave, a apresentação de uma prática como uma solução para as necessidades percebidas, passando pelas ações individuais reflexivas, a difusão destas práticas, resultando na construção de um campo organizacional com determinado grau de convergência. A construção do sistema conceitual seguiu a noção de morfogênese para superar a complexidade de modelos explicativos multinível. O modelo identifica que a diversidade organizacional pode coexistir com pressões institucionais isomórficas fortes, uma vez que é central a noção de interpretação e re-interpretação contínua dos atores sociais dentro do campo.
Resumo:
Este trabalho propõe e avalia ex-ante uma política pública, denominada Sociedade de Participantes, para reduzir a desigualdade econômica no Brasil. Para tanto, inicialmente se discute os efeitos da desigualdade no tecido social e no desenvolvimento econômico de um país. Em seguida, apresenta os conceitos básicos de justiça distributiva, contrapondo os ideais da direita liberal e os da esquerda distributiva, e sustentando que a política proposta equilibra os desejos destas duas correntes. O passo seguinte é a quantificação do fenômeno econômico em pauta, a desigualdade, sendo então apresentada uma metodologia inédita no Brasil, que permite analisar a contribuição para a desigualdade de cada setor econômico e unidade geográfica da federação. Também são expostas medidas éticas de desigualdade, até agora não discutidas em nossa literatura, que possibilitam avaliar o bem-estar de uma população. A proposta é então discutida detalhadamente, sendo analisadas as políticas semelhantes que estão sendo implantadas em outros países, levantando-se os prós e contras em relação à política de renda mínima garantida e dialogando-se com as críticas contra a política proposta existentes na literatura. Para a avaliação ex-ante da Sociedade de Participantes é necessário um ferramental específico, que inclui conceitos de microssimulação e demografia, discutidos na etapa seguinte. Para sua implementação discute-se também uma mudança no sistema tributário nacional, fortemente embasado em tributos indiretos com características regressivas, e a adoção de um imposto sobre riquezas, que é quantificado no estudo. Finalmente, são apresentados os resultados, simulados entre 2008 e 2080, da avaliação ex-ante da Sociedade de Participantes, na qual se conclui que ela é altamente efetiva para combater a desigualdade e a pobreza endêmica no Brasil.
Resumo:
Este trabalho apresenta um protótipo de uma máquina de workflow, de uso geral, implementado em plataforma de software livre. O protótipo utiliza um servidor web com PHP, em sistema operacional Linux, alguns programas desenvolvidos em C e o banco de dados MySql. O projeto CEMT demanda o uso da tecnologia de workflow, com o objetivo de controlar a execução de cursos a distância. Antes de ser iniciado o desenvolvimento do protótipo, foi feito um estudo sobre algumas máquinas de workflow existentes, com o objetivo de encontrar alguma que tivesse licença livre e pudesse ser utilizada no projeto CEMT, ou colher subsídios para o desenvolvimento de uma máquina de workflow própria. Foram testadas duas máquinas de workflow de licença livre (Openflow e OFBIZ), uma máquina com cópia de demonstração (Reactor) e foram consultadas as documentações fornecidas pelos fabricantes. Além disso foi consultada também a documentação do Domino Workflow, que não disponibilizou cópia de avaliação e cuja licença não é livre. Um dos requisitos do protótipo é a compatibilidade com os padrões de interface recomendados pela WfMC. Esses padrões permitem a interoperabilidade entre softwares de workflow. O primeiro benefício da adoção desses padrões é a interação com o editor gráfico de workflow AW (Amaya Workflow), desenvolvido no Instituto de Informática da UFRGS. Este editor gera definições de processos de workflow no formato da linguagem XPDL (XML Process Definition Language), que alimentam a máquina de workflow. O esquema XPDL foi traduzido para um esquema de banco de dados relacional e foi desenvolvido um compilador que lê um arquivo no formato XPDL e gera comandos SQL de inserção das informações desse arquivo no banco de dados. Foi desenvolvida uma interface web para demonstrar o funcionamento do protótipo. A API definida na Interface 2 da WfMC foi implementada parcialmente. Essa API permite o desenvolvimento independente de outras interfaces de usuário. Foram propostas algumas extensões à Interface 1 e modificações na definição de estados recomendada pela Interface 2 da WfMC. Com isso foi possível aumentar o controle sobre a execução das instâncias de workflow. Foram incluídas as restrições de data e possibilidade de bloqueio na execução de instâncias de atividades. Outras extensões possibilitam um serviço de notificações e atividades em grupo e oferecem novas possibilidades de alocação de atividades. O funcionamento básico do protótipo é descrito e inclui as funcionalidades de carga da definição de processo, instanciação de processo, visualização da lista de trabalho e execução das atividades, entre outras.
Resumo:
O desempenho empresarial é um dos conceitos mais importantes da estratégia empresarial (COMBS; CROOK; SHOOK, 2004; VENKATRAMAN; RAMAJUNAM, 1986). A comunidade científica e empresarial parece associá-lo à capacidade da empresa de atender as demandas de seus stakeholders, deixando-os satisfeitos. No entanto, critérios variados são usados na quantificação do desempenho empresarial, o que dificulta conclusões sobre a dimensionalidade do construto. Visando contribuir com a medição do conceito, essa dissertação buscou identificar os indicadores de desempenho mais usados e testar a estrutura dimensional por trás deles. Para isso, duas estratégias de pesquisa foram adotadas. Primeiramente, 177 artigos empíricos foram analisados para identificar como o desempenho empresarial tem sido mensurado pela comunidade acadêmica e criar a lista de indicadores. Em seguida, dados de desempenho de 111 empresas foram submetidos a análises fatoriais confirmatórias para testar a dimensionalidade do construto e a existência de estruturas de segunda ordem. Os resultados indicaram que o desempenho empresarial é multidimensional e apresenta dois fatores de segunda ordem - o desempenho financeiro e a consciência sócio-ambiental - correlacionados com as dimensões satisfação dos clientes e satisfação dos funcionários. Essa pesquisa fornece também um instrumento validado para mensurar o desempenho empresarial, por meio de 26 indicadores subjetivos. Um último ponto foi verificar que muitas pesquisas empregam mensurações pouco válidas e confiáveis, o que reforça a contribuição dos dois primeiros achados, uma vez que eles podem ser usados em para melhorar futuras medições.
Resumo:
A evolução da Computação Baseada em Clusters, impulsionada pelo avanço tecnológico e pelo custo relativamente baixo do hardware de PCs, tem levado ao surgimento de máquinas paralelas de porte cada vez maior, chegando à ordem das centenas e mesmo milhares de nós de processamento. Um dos principais problemas na implantação de clusters desse porte é o gerenciamento de E/S, pois soluções centralizadas de armazenamento de arquivos, como o NFS, rapidamente se tornam o gargalo dessa parte do sistema. Ao longo dos últimos anos, diversas soluções para esse problema têm sido propostas, tanto pela utilização de tecnologias especializadas de armazenamento e comunicação, como RAID e fibra ótica, como pela distribuição das funcionalidades do servidor de arquivos entre várias máquinas, objetivando a paralelização de suas operações. Seguindo essa última linha, o projeto NFSP (NFS Parallèle) é uma proposta de sistema de arquivos distribuído que estende o NFS padrão de forma a aumentar o desempenho das operações de leitura de dados pela distribuição do serviço em vários nós do cluster. Com essa abordagem, o NFSP objetiva aliar desempenho e escalabilidade aos benefícios do NFS, como a estabilidade de sua implementação e familiaridade de usuários e administradores com sua semântica de uso e seus procedimentos de configuração e gerenciamento. A proposta aqui apresentada, chamada de dNFSP, é uma extensão ao NFSP com o objetivo principal de proporcionar melhor desempenho a aplicações que explorem tanto a leitura como a escrita de dados, uma vez que essa última característica não é contemplada pelo modelo original A base para o funcionamento do sistema é um modelo de gerenciamento distribuído de meta-dados, que permite melhor escalabilidade e reduz o custo computacional sobre o meta-servidor original do NFSP, e também um mecanismo relaxado de manutenção de coerência baseado em LRC (Lazy Release Consistency), o qual permite a distribuição do serviço sem acarretar em operações onerosas de sincronização de dados. Um protótipo do modelo dNFSP foi implementado e avaliado com uma série de testes, benchmarks e aplicações. Os resultados obtidos comprovam que o modelo pode ser aplicado como sistema de arquivos para um cluster, efetivamente proporcionando melhor desempenho às aplicações e ao mesmo tempo mantendo um elevado nível de compatibilidade com as ferramentas e procedimentos habituais de administração de um cluster, em especial o uso de clientes NFS padrões disponíveis em praticamente todos os sistemas operacionais da atualidade.