886 resultados para Gerenciamento
Resumo:
Diversos estudos vêm analisando a contribuição da gestão da qualidade para o resultados financeiros das empresas, sejam eles conduzidos por acadêmicos ou por firmas de consultoria diretamente interessadas em comprovar a relação entre qualidade e desempenho superior. Apesar dos benefícios atribuídos ao gerenciamento da qualidade, o conjunto de pesquisas empíricas publicadas até hoje apresenta resultados não conclusivos. A grande maioria desses trabalhos se utilizam de dados de empresas americanas ou européias; no Brasil tal linha de pesquisa ainda é incipiente. Além de comparar o desempenho financeiro de uma amostra de empresas que efetivamente adotam a gestão da qualidade com as demais empresas de seus respectivos setores de atuação, este trabalho avaliou também a evolução do desempenho das próprias empresas dessa amostra no longo prazo (10 anos), comparando seus resultados no período pós-implementação da qualidade com os resultados obtidos anteriormente. Como proxy para a adoção efetiva da qualidade foram consideradas na amostra de estudo 33 empresas reconhecidas como ganhadoras ou finalistas do Prêmio Nacional da Qualidade (PNQ). O desempenho financeiro foi medido em três dimensões: crescimento, lucratividade e valor de mercado. Esses dados foram obtidos de um conjunto de bases de dados entre as quais se destacam o Balanço Anual da Gazeta Mercantil, a Economática e as Pesquisas Industriais Anuais do IBGE. Para isolar o efeito do setor de atuação das empresas, as variáveis foram parametrizadas de acordo com uma relação entre o desempenho das empresas da amostra de estudo, o desempenho do setor e a variância do desempenho do setor. No total, foram utilizadas 12.010 observações de 2.624 empresas (33 da amostra de estudo e 2.591 dos setores), no período de 1987 a 2006. Na primeira etapa da metodologia, o desempenho de cada empresa da amostra de estudo foi sumarizado por meio de regressões lineares, resultando em dois coeficientes: um linear representando o desempenho no ponto médio do período e um angular representando a taxa de evolução do desempenho no mesmo período. A seguir, análises paramétricas (testes t) e não-paramétricas (testes de Wilcoxon para observações pareadas e teste dos sinais) foram realizadas para os dados de toda a amostra. Os resultados mostraram que a rentabilidade foi a única dimensão estudada onde as empresas da amostra tiveram desempenho superior à média de seus respectivos setores; por outro lado, não foram observadas melhorias no desempenho quando comparados os períodos anterior e posterior à implementação efetiva da qualidade. A análise em conjunto desses dois achados fornece indícios de uma relação de co-variância, e não causal, entre qualidade e lucratividade. As conclusões apresentam as principais implicações dos resultados, com ênfase na formulação de possíveis hipóteses para se entender as causas da falta de associação entre qualidade e desempenho superior. Entre as mais importantes destacam-se hipóteses que relacionam qualidade e a perda da capacidade de inovação e que avaliam a gestão da qualidade sob a ótica da linha de pesquisa em estratégia conhecida por visão baseada em recursos (resource-based view – RBV).
Resumo:
O trabalho procurou analisar os conceitos de planejamento estratégico, planejamento financeiro e gerenciamento com base no valor como ferramentas importantes no processo de gestão corporativa atual. Ao considerar que, nos dias atuais, cabe às empresas serem eficientes em suas operações para se manterem competitivas no mercado em que atuam, essas ferramentas mostram-se importantes para que esse objetivo de eficiência seja alcançado. O objetivo da dissertação realizada foi realizar uma avaliação desses conceitos e sua evolução, bem como procurar, através de uma pesquisa de campo qualitativa, identificar sua efetiva adoção no gerenciamento de empresas multinacionais.
Resumo:
Analisa os primeiros resultados da implantação do Fundo de Desenvolvimento e Manutenção do Ensino Fundamental e Valorização do Magistério FUNDEF, no Estado de São Paulo, no período de 1998 a 2000, verificando se os seus objetivos estão sendo cumpridos, em especial diminuição de desigualdade de distribuição de recursos. Estuda dois municípios Santos e Cubatão a título de ilustração.
Resumo:
A evolução da Computação Baseada em Clusters, impulsionada pelo avanço tecnológico e pelo custo relativamente baixo do hardware de PCs, tem levado ao surgimento de máquinas paralelas de porte cada vez maior, chegando à ordem das centenas e mesmo milhares de nós de processamento. Um dos principais problemas na implantação de clusters desse porte é o gerenciamento de E/S, pois soluções centralizadas de armazenamento de arquivos, como o NFS, rapidamente se tornam o gargalo dessa parte do sistema. Ao longo dos últimos anos, diversas soluções para esse problema têm sido propostas, tanto pela utilização de tecnologias especializadas de armazenamento e comunicação, como RAID e fibra ótica, como pela distribuição das funcionalidades do servidor de arquivos entre várias máquinas, objetivando a paralelização de suas operações. Seguindo essa última linha, o projeto NFSP (NFS Parallèle) é uma proposta de sistema de arquivos distribuído que estende o NFS padrão de forma a aumentar o desempenho das operações de leitura de dados pela distribuição do serviço em vários nós do cluster. Com essa abordagem, o NFSP objetiva aliar desempenho e escalabilidade aos benefícios do NFS, como a estabilidade de sua implementação e familiaridade de usuários e administradores com sua semântica de uso e seus procedimentos de configuração e gerenciamento. A proposta aqui apresentada, chamada de dNFSP, é uma extensão ao NFSP com o objetivo principal de proporcionar melhor desempenho a aplicações que explorem tanto a leitura como a escrita de dados, uma vez que essa última característica não é contemplada pelo modelo original A base para o funcionamento do sistema é um modelo de gerenciamento distribuído de meta-dados, que permite melhor escalabilidade e reduz o custo computacional sobre o meta-servidor original do NFSP, e também um mecanismo relaxado de manutenção de coerência baseado em LRC (Lazy Release Consistency), o qual permite a distribuição do serviço sem acarretar em operações onerosas de sincronização de dados. Um protótipo do modelo dNFSP foi implementado e avaliado com uma série de testes, benchmarks e aplicações. Os resultados obtidos comprovam que o modelo pode ser aplicado como sistema de arquivos para um cluster, efetivamente proporcionando melhor desempenho às aplicações e ao mesmo tempo mantendo um elevado nível de compatibilidade com as ferramentas e procedimentos habituais de administração de um cluster, em especial o uso de clientes NFS padrões disponíveis em praticamente todos os sistemas operacionais da atualidade.
Resumo:
Esse estudo tem por finalidade contribuir para a discussão e o aprimoramento da gestão econômica e do desenvolvimento de ferramentas de apoio à decisão estratégica para empresas de serviços de saúde suplementar. Com base nos fundamentos teóricos sobre serviços, serviços de saúde suplementar, gerenciamento estratégico de custos e sistemas ABC/ABM, o estudo propõe um modelo de sistema de gestão de custos indiretos em planos de saúde sob a óptica do ABC/ABM, que visa proporcionar aos gestores uma visão ampla sobre o desempenho econômico dos planos e dos clientes. Assim, este estudo pretende colaborar com o desenvolvimento desse setor, que tem sofrido nos últimos anos o impacto da evolução da tecnologia e da medicina, provocando a constante elevação dos custos da assistência à saúde. Com a finalidade de justificar o estudo, o modelo é testado com a sua implementação em uma operadora de planos de saúde, possibilitando a discussão sobre as conclusões obtidas em relação ao problema abordado.
Resumo:
Na presente dissertação foi apresentada, pela primeira vez para o mercado brasileiro, uma aplicação da análise de componentes principais para a identificação dos fatores que influenciam o comportamento da estrutura temporal de cupom cambial brasileira, tendo como amostra cotações de ajuste dos contratos futuros de DDI e de FRA (Forward Rate Agreement) de cupom cambial da BM&F, cotações de fechamento do Dólar à vista e cotações de venda da Ptax800, para o período entre 02/01/2002 e 29/12/2005. Através da aplicação da técnica de análise de componentes principais para as curvas de cupom cambial limpo à vista e a termo foi possível observar superioridade no poder explicativo da última com relação à primeira, com três componentes principais sendo responsáveis por mais de 94% da variabilidade explicada na aplicação da análise de componentes principais à curva a termo de cupom cambial. A superioridade dos resultados obtidos na análise da curva a termo de cupom cambial também pôde ser observada na interpretação visual dos componentes de nível, inclinação e curvatura (interpretação esta que não pôde ser claramente obtida na análise dos gráficos referentes à curva à vista de cupom cambial). Este trabalho também teve como objetivo a análise da efetividade de uma aplicação de imunização do risco de variação nas taxas de cupom cambial baseada nos resultados anteriormente obtidos com a análise de componentes principais da curva a termo de cupom cambial. A estratégia de imunização realizada demonstrou alta efetividade na comparação entre os resultados da carteira objeto de imunização (carteira arbitrária de swaps DólarxCDI) e os resultados da carteira instrumento de imunização (contratos futuros de FRA de cupom cambial da BM&F). Este resultado é de grande importância para o gerenciamento de carteiras que possuam títulos expostos ao risco de variações na curva de cupom cambial.
Resumo:
A presente dissertação tem como objeto de estudo a superfície de volatilidade implícita de opções européias da paridade Real / Dólar no mercado brasileiro. Este trabalho não tenta explicar as deformações ou os desvios da volatilidade implícita com relação à hipótese de volatilidade constante do modelo de Black & Scholes (1973), mas trata a volatilidade implícita como uma variável financeira interessante por si só, procurando analisar a dinâmica de sua superfície. Para a análise desta superfície, o presente estudo propõe a utilização de uma ferramenta empregada em estudos empíricos de diversos ramos da ciência: a Análise de Componentes Principais – ACP (Principal Component Analysis). As mudanças na superfície de volatilidade alteram o apreçamento das opções de uma carteira. Desta forma, constituem um fator de risco que precisa ser estudado e entendido para o desenvolvimento de estratégias de imunização e de técnicas de gerenciamento de risco, dentre elas o cálculo de Valor em Risco (V@R – Value at Risk). De posse dos resultados obtidos com a análise de componentes principais da superfície de volatilidade implícita, o presente estudo tem por objetivo obter valores limite de variação desta volatilidade implícita, como forma de estimar as conseqüentes variações extremas nos valores de uma carteira de opções. Para tanto, baseia-se em estudos sobre a aplicação da análise de componentes principais da superfície de volatilidade implícita desenvolvidos por Alexander (2001). Estes estudos, por sua vez, são derivados de estudo sobre a dinâmica de curvas de volatilidade proposto por Derman (1999). Para se verificar a eficiência da metodologia proposta, os valores extremos obtidos são testados de acordo com os critérios de teste retroativo propostos pela emenda ao comitê da Basiléia de 1996.
Resumo:
O objetivo deste trabalho é analisar o desempenho de estimadores de volatilidade que utilizam valores extremos (máximo, mínimo, abertura e fechamento) para ativos no mercado brasileiro. Discute-se o viés dos estimadores usando como referências o estimador clássico, a volatilidade realizada e a volatilidade implícita de 1 mês da série de opções no dinheiro (ATM - at the money); discute-se a eficiência quanto à previsibilidade da volatilidade futura usando o estimador clássico e a volatilidade implícita defasados um período para frente como variáveis dependentes e a eficiência em si, isto é, quanto ao tamanho da variância do estima-dor. Como representantes de ativos brasileiros, foram escolhidos a paridade BRL/USD spot e o Índice Bovespa. Além de bastante líquidos, esses dois ativos têm bastante importância no mercado brasileiro, seja como benchmark para investimentos, bem como ativos-base para muitos derivativos operados na Bolsa de Mercadorias e Futuros (BM&F) e na Bolsa de Va-lores de São Paulo (Bovespa). A volatilidade do ativo-base é uma das variáveis para o apre-çamento de derivativos como opções; muitas estratégias são montadas, no mercado financei-ro, utilizando-a como referência. A volatilidade também é bastante usada no gerenciamento de riscos, em modelos como o Value at Risk (VaR), por exemplo.
Resumo:
Várias metodologias de mensuração de risco de mercado foram desenvolvidas e aprimoradas ao longo das últimas décadas. Enquanto algumas metodologias usam abordagens não-paramétricas, outras usam paramétricas. Algumas metodologias são mais teóricas, enquanto outras são mais práticas, usando recursos computacionais através de simulações. Enquanto algumas metodologias preservam sua originalidade, outras metodologias têm abordagens híbridas, juntando características de 2 ou mais metodologias. Neste trabalho, fizemos uma comparação de metodologias de mensuração de risco de mercado para o mercado financeiro brasileiro. Avaliamos os resultados das metodologias não-paramétricas e paramétricas de mensuração de VaR aplicados em uma carteira de renda fixa, renda variável e renda mista durante o período de 2000 a 2006. As metodologias não-paramétricas avaliadas foram: Simulação Histórica pesos fixos, Simulação Histórica Antitética pesos fixos, Simulação Histórica exponencial e Análise de Cenário. E as metodologias paramétricas avaliadas foram: VaR Delta-Normal pesos fixos, VaR Delta-Normal exponencial (EWMA), Simulação de Monte Carlo pesos fixos e Simulação de Monte Carlo exponencial. A comparação destas metodologias foi feita com base em medidas estatísticas de conservadorismo, precisão e eficiência.
Resumo:
O objetivo deste trabalho foi mostrar modelagens alternativas à tradicional maneira de se apurar o risco de mercado para ativos financeiros brasileiros. Procurou-se cobrir o máximo possível de fatores de risco existentes no Brasil; para tanto utilizamos as principais proxies para instrumentos de Renda Fixa. Em momentos de volatilidade, o gerenciamento de risco de mercado é bastante criticado por trabalhar dentro de modelagens fundamentadas na distribuição normal. Aqui reside a maior contribuição do VaR e também a maior crítica a ele. Adicionado a isso, temos um mercado caracterizado pela extrema iliquidez no mercado secundário até mesmo em certos tipos de títulos públicos federais. O primeiro passo foi fazer um levantamento da produção acadêmica sobre o tema, seja no Brasil ou no mundo. Para a nossa surpresa, pouco, no nosso país, tem se falado em distribuições estáveis aplicadas ao mercado financeiro, seja em gerenciamento de risco, precificação de opções ou administração de carteiras. Após essa etapa, passamos a seleção das variáveis a serem utilizadas buscando cobrir uma grande parte dos ativos financeiros brasileiros. Assim, deveríamos identificar a presença ou não da condição de normalidade para, aí sim, realizarmos as modelagens das medidas de risco, VaR e ES, para os ativos escolhidos, As condições teóricas e práticas estavam criadas: demanda de mercado (crítica ao método gausiano bastante difundido), ampla cobertura de ativos (apesar do eventual questionamento da liquidez), experiência acadêmica e conhecimento internacional (por meio de detalhado e criterioso estudo da produção sobre o tema nos principais meios). Analisou-se, desta forma, quatro principais abordagens para o cálculo de medidas de risco sendo elas coerentes (ES) ou não (VaR). É importante mencionar que se trata de um trabalho que poderá servir de insumo inicial para trabalhos mais grandiosos, por exemplo, aqueles que incorporarem vários ativos dentro de uma carteira de riscos lineares ou, até mesmo, para ativos que apresentem risco não-direcionais.
Resumo:
O planejamento dos recursos hídricos é uma tarefa complexa pois trata diretamente dos interesses de diversos setores da sociedade e gera freqüentemente conflitos pelo uso. Em se tratando de bacias hidrográficas esta relação de interesses se mostra bastante latente pois verifica-se toda a sorte de atividades humanas que se distribuem no espaço, ao mesmo tempo em que se observa o declínio dos recursos ambientais. Assim sendo torna-se evidente a necessidade de se compreender as inter-relações entre as forças que estimulam o processo produtivo na bacia hidrográfica. A tarefa exige um estudo mais amplo da bacia, no qual se considere as relações entre as diversas ações empreendidas pelo homem nesta unidade do espaço geográfico. Neste sentido a alteração do uso do solo se apresenta como um indicador das principais forças que promovem o desenvolvimento de uma região. Compreender como se dá este processo e capturar o padrão de evolução destas atividades no espaço da bacia significa, dentro do contexto dos recursos hídricos, possibilitar um melhor planejamento e gerenciamento das águas, tanto no aspecto qualitativo quanto quantitativo. Esta dissertação discute uma metodologia para simular o padrão de alteração de classes de uso do solo em uma bacia hidrográfica de médio porte. Para isso foram utilizadas técnicas de geoprocessamento, sensoriamento remoto e modelagem matemática. Foram considerados agentes motivadores da alteração do uso do solo a declividade do terreno e as distâncias das rodovias, dos centros urbanos e dos cursos d’água. Os resultados obtidos mostraram que a bacia de estudo avança no sentido de uma ação de degradação cada vez mais intensa em algumas regiões, caracterizada pela ocupação de áreas nativas e pela provável remoção da mata ciliar ao longo dos cursos d’água. Observou-se também que existe uma inércia maior com relação às alterações justamente nas regiões mais afastadas do centro urbano e das rodovias federais.
Resumo:
Técnicas atuais de Gerenciamento da Drenagem Urbana preconizam que a drenagem da água da precipitação seja realizada com o uso de dispositivos de controle que agem na fonte do escoamento superficial. Tais dispositivos têm o objetivo de recuperar a capacidade natural de armazenamento do solo, reduzida devido aos impactos da urbanização. Com o desvio do escoamento das áreas impermeáveis para esses dispositivos, o solo recupera as condições de escoamento anteriores à urbanização. A presente dissertação descreve um experimento inédito no Brasil, onde foi aplicada a técnica do Pavimento Permeável. Foi montado um aparato experimental que possibilita o monitoramento do desempenho do dispositivo, com o objetivo principal de analisar a viabilidade técnica da utilização de um pavimento permeável de baixo custo e tecnologia simples, no controle da geração de escoamento superficial na fonte. Com o trabalho, permitiuse uma maior difusão do conhecimento e propagação da técnica, ainda pouco dominada pelos engenheiros e contratantes. A obra consta de um lote de estacionamento de aproximadamente 264m2, que foi dividido em duas partes iguais, onde foram utilizados os seguintes revestimentos: asfalto poroso, de granulometria aberta; blocos vazados intertravados de concreto. O experimento foi projetado para permitir o monitoramento quali-quantitativo dos escoamentos nos dois tipos de pavimento, com relação à redução no escoamento superficial, quando sujeitos às condições de tráfego encontradas na prática, no lote de estacionamento situado próximo ao bloco de ensino do IPH/UFRGS. São discutidos aspectos relacionados às condições de funcionamento, adequação dos materiais empregados, eficiência do dispositivo e custos envolvidos. A avaliação da eficiência hidráulica-hidrológica do dispositivo foi feita através do monitoramento e análise de dados de precipitação, armazenamento no reservatório, escoamento superficial e umidade no solo subjacente. O pavimento permeável se mostrou uma técnica eficiente de controle na fonte do escoamento superficial. Foram obtidas taxas médias de 5% de escoamento superficial para a superfície com revestimento asfáltico, e de 2,3% para o revestimento em blocos vazados intertravados. Os dados de armazenamento mostraram que em nenhum evento o volume armazenado superou 25% da capacidade máxima do reservatório. Ainda com base nesses dados, verificou-se que a metodologia de dimensionamento utilizada super-dimensionou a estrutura reservatório. A importância do dimensionamento preciso da estrutura é evidenciada pela estimativa dos custos, onde se verifica que o reservatório de britas contribui para uma significativa parcela dos custos totais.
Resumo:
A evolução das redes de computadores criou a necessidade de novos serviços de rede que fornecessem qualidade de serviços nos fluxos de dados dos usuários. Nesse contexto, uma nova área de pesquisa surgiu, o gerenciamento de QoS, onde foram apresentadas novas tarefas para o gerenciamento de recursos de rede que fornecem QoS. Uma delas, a descoberta de QoS, é responsável por identificar alvos numa rede de computadores. Um alvo é uma entidade capaz de implementar funcionalidades para o fornecimento de QoS. Essa dissertação apresenta uma proposta de modelo para a descoberta de QoS. O modelo é composto por duas partes: metodologia e arquitetura. A metodologia define os procedimentos para a realização da descoberta de QoS, enquanto a arquitetura define entidades que implementam tais procedimentos bem como o relacionamento entre essas entidades. O modelo proposto também tem por objetivo ser extensível, escalável e distribuído. Além disso, um protótipo baseado no modelo é apresentado.
Resumo:
O crescente aumento pela exigência de funcionalidades na implementação dos atuais sistemas de automação predial, vem provocando um aumento da complexidade de projeto e de gerenciamento desses sistemas. O grande desafio que se apresenta atualmente é como, a partir de dispositivos isolados e subsistemas, conseguir sistemas totalmente integrados, os quais permitam economia no investimento inicial, na operação e na manutenção dos sistemas de automação, garantindo um aumento no desempenho geral da edificação Acredita-se que uma etapa importante para avaliar a real necessidade da integração seja projetar o sistema de automação sem foco em uma tecnologia específica, o que não ocorre atualmente, uma vez que, pela carência de ferramentas de apoio ao projeto, as etapas de especificação e projeto geralmente já estão focadas em uma tecnologia disponível para implementação. Este trabalho busca preencher a lacuna deixada pela carência dessas ferramentas, tendo por finalidade a especificação de um framework orientado a objetos para o desenvolvimento de aplicações de automação predial e residencial que permita modelar estes sistemas de forma independente da tecnologia que ele irá utilizar, possibilitando o mapeamento posterior para a mais adequada ou disponível. Serviram como base para o framework proposto a análise de vários padrões abertos disponíveis para implementação de sistemas de automação predial e a especificação ISO/IEC10746, o modelo de referência para processamento distribuído aberto, usado como suporte a metodologia de projeto proposta. O trabalho também discute o mapeamento dos conceitos definidos para uma arquitetura alvo, apresentado um estudo de caso para validação da metodologia proposta.
Resumo:
Identificar, compartilhar e gerenciar os riscos de contratar são preocupações que impedem o estabelicmento e a administração das Parcerias Públicos Particulares (PPP). Porem, gerentes das entidades públicas, bancos de formento, construtoras e seguradoras pesquisam e utilizam muitas técnicas para enfrentar a avaliação e gerenciamento dos riscos. A transferência de risco é uma indicação dos chamados benefícios que são inspirados pelos PPP, contudo devido às realidades contratuais e conceptuais, a entidade de cede o risco (o partido público) permanece quase sempre como o portador final do risco. Conseqüentemente, o partido público retem um interesse de resistência na gerência total destes riscos cedidos. Esta dissertação explora alguns defeitos das aproximações comuns a conceituar a gestão de risco no contexto de um PPP. Focalizando os conceitos da interdependência e da reciprocidade e usando na decisão para transferir o risco do projeto, esta dissertação molda a decisão para transferir o risco nos termos das realidades interdependentes de relacionamentos sistemáticos, alargam os conceitos técnicos do risco e da avaliação de risco, considerando o uso reflexivo das diferenças na analise de um estudo de caso. O autor explora estes conceitos em uma análise da decisão de um gerente de risco da empresa de construção civil brasileira Construtora Norberto Odebrecht (ODB) para projetar uma facilidade inovadora da ligação de garantia com Inter-American Development Bank (BID) e uma seguradora, American International Group (AIG), um negócio que ganhe o reconhecimento Trade Finance Magazine’s 2007 deal of the year. O autor mostra que por compreender a transferência de risco nos termos abordados nesta dissertação, um atore que transfere o risco pode identificar e criar mais oportunidades de estabelecer relacionamentos em longo prazo, através dos processos que a literatura atual do PPP ainda não considere. Os resultados devem fornecer contribuições para a pesquisas sobre a transferência do risco do projeto, na cooperação entre organizações e na seleção do sócio do projeto do potencial.