991 resultados para Modelos de estimativas
Resumo:
O objetivo do trabalho foi verificar a aplicação de modelos de decisão ¿make or buy¿ nas decisões de terceirização em hospitais privados. Foi realizado um levantamento dos modelos mais representativos, na literatura de administração em geral e do setor de saúde, para a decisão. Realizou-se estudo de casos múltiplos em quatro hospitais privados de grande porte do município de São Paulo, nas áreas terceirizadas de laboratório de análises clínicas, serviços de diagnóstico por imagem e de hemoterapia (bancos de sangue e agências transfusionais). Procedeu-se entrevistas semi-estruturadas para obter a percepção de executivos e proprietários das organizações (hospitais e empresas) quanto às variáveis independentes e dependentes de cada um dos modelos escolhidos. A análise utilizou a técnica de adequação ao padrão. A combinação de Perspectiva de Competências Centrais, Teoria dos Custos de Transação e Teoria da Agência mostrou ter maior poder descritivo sobre os achados das estruturas inter-firmas adotadas. Teoria de Dependência de Recursos e Dinâmica Setorial tem menor aplicação nos serviços pesquisados. A Teoria de Rede descreve vários aspectos encontrados em todos os casos. A pesquisa pode contribuir para a modelagem das decisões de terceirização no setor.
Resumo:
Estudo que sistematiza e compara os resultados apresentados por diferentes modelos de gestão hospitalar pública do Estado de São Paulo, durante o período de 2000 a 2001, quando a rede era composta por mais de 60 hospitais públicos. Por meio de uma extensa revisão bibliográfica foi traçado um panorama ao longo das últimas décadas, no que tange à Reforma do Estado, e as transformações que o Estado sofreu na tentativa da redução dos gastos govermentais, em função de sua crise econômico-financeira à partir da década de 70 e como estas afetaram as políticas de Saúde Pública. Buscou-se uma metodologia que permitisse a análise da eficiência técnica, e do desempenho da nova Política Pública que introduz o terceiro setor e outras formas organizacionais como agentes gestores do aparelho de Saúde Pública. A coleta de dados foi realizada em onze hospitais estudados, os quais foram analisados e classificados de acordo com o modelo de gestão: administração direta, administração mista e administração por OSS; em relação às dimensões de capacidade instalada, recursos humanos, produção e financeiras comparados entre sí e frente a literatura. Seguindo-se a aplicação de dois modelos de DEA (CCR e BCC), orientados à maximização dos resultados, que permitiram a elaboração dos rankings de eficiência técnica. Após a análise dos dados e de posse dos resultados foi realizada a discussão dos mesmos, possibilitando investigar a eficiência técnica de três modelos de gestão hospitalar, tendo em vista as seguintes questões: a eficiência técnica do novo modelo de gestão por Organizações Sociais em Saúde é superior que os demais? Os hospitais de porte menor são mais eficientes? e por fim se os hospitais universitários têm eficiência menor que os demais? Chegando-se à conclusão de que a diferença do escore de eficiência técnica dentre os três modelos de gestão estudados não foi estatísticamente significativa em ¾ dos modelos de DEA aplicados (p-valor 0,1576); que o escore de eficiência técnica não apresentou diferença estatísticamente associada ao porte (H-valor 3,15;) e que os hospitais universitários embora mais custosos não apresentam grau de ineficiência maior que os demais (p-valor 0,2909). E por fim que é recomendável introduzirem-se métodos objetivos de avaliação da eficiência hospitalar como ferramenta indispensável à moderna Administração de Saúde e à elaboração e definição de Políticas Públicas direcionadas ao Setor.
Resumo:
Com o crescente uso das teorias e métodos vindos das áreas de economia regional e urbana, economia e econometria espacial na fronteira entre as áreas de economia e políticas públicas, estudar esse arcabouço teórico e metodológico torna-se relevante no campo da análise de políticas públicas. O objetivo geral dessa dissertação é discutir de modo crítico aspectos da literatura de econometria espacial e sua aplicabilidade, com especial foco na comparação entre os diferentes modelos e matrizes de ponderação espacial. Esse estudo procura analisar diferentes formas de medidas que permitem a construção de uma matriz de ponderação espacial, bem como testar por meio de simulação experimental e em uma aplicação empírica a robustez de algumas dessas matrizes e de diferentes modelos. Dadas as indicações da literatura e as evidências mostradas nessa dissertação, a estratégia mais confiável para a busca de um modelo parece ser utilizar as estimativas dos modelos, em conjunto com as estatísticas de Moran, para identificar presença de algum tipo de correlação espacial, e do teste LM da variável dependente, para indicar esse tipo de correlação especificamente. Observa-se que, de modo geral, não há muita diferença em termos de esperança dos parâmetros não espaciais, quando comparadas a estimações tradicionais com as que utilizam as técnicas espaciais. Com isso, a indicação que se pode fazer é que o uso das ferramentas de econometria espacial deve ser aplicado quando o interesse da análise é justamente na estimação dos parâmetros de correlação espacial. Comparando o uso da matriz de contigüidade no lugar da matriz de distâncias, é possível notar que a matriz de contigüidade não é, de forma geral, uma boa substituição para a matriz de distâncias. Ela capta parcialmente o efeito de rho e lambda, além de captar erroneamente lambda, quando este inexiste.
Resumo:
O objetivo geral desta dissertação é analisar a influência do crédito imobiliário no desenvolvimento habitacional do Chile e Brasil, considerando também as diferenças institucionais e econômicas dos dois países. O capítulo 1 inicia a discussão dos fatores determinantes do desenvolvimento habitacional descrevendo a história de financiamento imobiliário nos dois países. É dado destaque também para as políticas sociais e os arcabouços institucionais que afetam a dinâmica do desenvolvimento habitacional. O segundo capítulo apresenta os modelos tradicionais de equilíbrio no mercado habitacional, todos baseados na premissa de mercado de capitais perfeito. Na seqüência da análise, é apresentada teoria de mercado de crédito racionado, proposta de Stiglitz e Weiss (1981), da qual se deriva um modelo de racionamento de crédito para projetos imobiliários. Nessa abordagem, a assimetria de informação, as restrições de riqueza, a falta de liquidez, a não satisfação de direitos de propriedade e de salvaguardas legais que garantam o adimplemento de contratos tornam o crédito imobiliário racionado. Por fim, propõe-se um modelo de equilíbrio no mercado habitacional em que o crédito é racionado. A taxa primária de juros, a disponibilidade de fundos e o desenvolvimento institucional determinam a taxa de juros de empréstimo, de forma independente do nível de demanda por crédito, caracterizando um mercado em que a taxa de juros não opera como um instrumento automático de eliminação da escassez relativa de habitações. O capítulo 3 avalia, do ponto de vista quantitativo, em que medida há racionamento de crédito no Chile e no Brasil. Primeiramente, é discutida a metodologia empregada para medir o déficit habitacional e são apresentadas suas estimativas para os dois países a partir de dados censitários das últimas três décadas. Então, são apresentados o modelo econométrico e a metodologia empregada na pesquisa empírica, prosseguindo com a discussão de seus resultados. Nessa etapa da pesqu
Resumo:
Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.
Resumo:
O objetivo deste trabalho é testar a aplicação de um modelo gráfico probabilístico, denominado genericamente de Redes Bayesianas, para desenvolver modelos computacionais que possam ser utilizados para auxiliar a compreensão de problemas e/ou na previsão de variáveis de natureza econômica. Com este propósito, escolheu-se um problema amplamente abordado na literatura e comparou-se os resultados teóricos e experimentais já consolidados com os obtidos utilizando a técnica proposta. Para tanto,foi construído um modelo para a classificação da tendência do "risco país" para o Brasil a partir de uma base de dados composta por variáveis macroeconômicas e financeiras. Como medida do risco adotou-se o EMBI+ (Emerging Markets Bond Index Plus), por ser um indicador amplamente utilizado pelo mercado.
Resumo:
O primeiro capítulo desta tese tem por objetivo classificar as várias abordagens sobre produtividade, de tal sorte que se tenha uma idéia mais detalhada das metodologias que embasam as diferentes análises empíricas. O segundo capítulo trata de identificar, dentre as várias abordagens disponíveis, aquelas de uso mais freqüente na mensuração da produtividade agregada e comparar resultados, vantagens e desvantagens metodológicas, procurando evitar comparações inadequadas entre metodologias muito díspares. Uma conclusão a que se chega nesse ponto do trabalho é a de que os métodos que pressupõem eficiência técnica e alocativa não dão conta de esclarecer as razões econômicas por trás das diferenças de produtividade entre nações. Os métodos que relaxam a hipótese de eficiência, chamados de métodos de fronteiras de produção, têm o mérito de separar os efeitos do progresso técnico dos ganhos de eficiência técnica, estes últimos freqüentemente interpretados como difusão tecnológica e aprendizado – isto é, como um efeito de alcance. Em razão disso, parecem ser adequados para discutir várias das questões levantadas na literatura de crescimento econômico. No capítulo três, apresenta-se uma alternativa pouco explorada na literatura de crescimento econômico para mensuração da produtividade usando fronteiras estocásticas de produção. Essa abordagem permite uma posterior decomposição das variações da produtividade em partes que apresentam interpretação econômica intuitiva. O capítulo quatro usa as estimativas obtidas no capítulo anterior para efetuar a decomposição da taxa de crescimento da produtividade da forma mais detalhada que o estado das artes parece permitir. Isso é feito para um subconjunto de países da amostra (por questões de disponibilidade de dados) que ainda assim mantém um razoável grau de heterogeneidade. Os resultados permitem, então, que se avalie as contribuições da acumulação de fatores, da produtividade (como um todo) e de seus componentes no comportamento da taxa de crescimento do produto por trabalhador. O trabalho desenvolvido nos capítulos anteriores permite, por fim, que se trace algumas conclusões. De forma geral, a mais importante conclusão do trabalho é a de que a eficiência alocativa importa, e muito, para o estudo comparativo do desempenho econômico das nações. As diferenças de padrão de vida medido pelo produto por trabalhador entre grupos de países (desenvolvidos e em desenvolvimento) guardam grande relação com as diferenças de produtividade nesses países. O progresso técnico, juntamente com a eficiência técnica são os principais responsáveis pela variação dessa produtividade. Nos países em desenvolvimento o efeito da eficiência alocativa é ainda mais importante e contribui fortemente para redução da produtividade. A eficiência alocativa é ainda o componente da produtividade de maior peso na explicação das diferenças entre países ricos e pobres quanto à evolução do produto por trabalhador. Os resultados revelam ainda um efeito de alcance da fronteira (variações na eficiência técnica) que ocorre tanto para países em desenvolvimento quanto para os desenvolvidos.
Resumo:
This paper confronts the Capital Asset Pricing Model - CAPM - and the 3-Factor Fama-French - FF - model using both Brazilian and US stock market data for the same Sample period (1999-2007). The US data will serve only as a benchmark for comparative purposes. We use two competing econometric methods, the Generalized Method of Moments (GMM) by (Hansen, 1982) and the Iterative Nonlinear Seemingly Unrelated Regression Estimation (ITNLSUR) by Burmeister and McElroy (1988). Both methods nest other options based on the procedure by Fama-MacBeth (1973). The estimations show that the FF model fits the Brazilian data better than CAPM, however it is imprecise compared with the US analog. We argue that this is a consequence of an absence of clear-cut anomalies in Brazilian data, specially those related to firm size. The tests on the efficiency of the models - nullity of intercepts and fitting of the cross-sectional regressions - presented mixed conclusions. The tests on intercept failed to rejected the CAPM when Brazilian value-premium-wise portfolios were used, contrasting with US data, a very well documented conclusion. The ITNLSUR has estimated an economically reasonable and statistically significant market risk premium for Brazil around 6.5% per year without resorting to any particular data set aggregation. However, we could not find the same for the US data during identical period or even using a larger data set. Este estudo procura contribuir com a literatura empírica brasileira de modelos de apreçamento de ativos. Dois dos principais modelos de apreçamento são Infrontados, os modelos Capital Asset Pricing Model (CAPM)e de 3 fatores de Fama-French. São aplicadas ferramentas econométricas pouco exploradas na literatura nacional na estimação de equações de apreçamento: os métodos de GMM e ITNLSUR. Comparam-se as estimativas com as obtidas de dados americanos para o mesmo período e conclui-se que no Brasil o sucesso do modelo de Fama e French é limitado. Como subproduto da análise, (i) testa-se a presença das chamadas anomalias nos retornos, e (ii) calcula-se o prêmio de risco implícito nos retornos das ações. Os dados revelam a presença de um prêmio de valor, porém não de um prêmio de tamanho. Utilizando o método de ITNLSUR, o prêmio de risco de mercado é positivo e significativo, ao redor de 6,5% ao ano.
Resumo:
A gestão e a mensuração do risco operacional é uma preocupação crescente da comunidade bancária, de modo que a escolha adequada do modelo de alocação de capital para risco operacional pode tornar-se um diferencial competitivo. Este trabalho apresenta as vantagens da adoção de modelos causais para a gestão e mensuração do risco operacional e, ao investigar a aplicação de Redes Neurais Artificiais para tal propósito, comprova que o modelo causal chega a valores de capital mais alinhados à exposição ao risco da instituição financeira. Além disso, há a vantagem de que, quanto mais sensível a risco a metodologia de cálculo de capital for, maior será o incentivo para uma gestão apropriada dos riscos no dia-a-dia da instituição financeira, o que não apenas reduz sua necessidade de alocação de capital, quanto diminui suas perdas esperadas. Os resultados, portanto, são positivos e motivam estudos futuros sobre o tema.
Resumo:
O presente estudo demonstra que o mercado brasileiro cambial de forward reflete adequadamente a visão dos economistas – obtida junto a pesquisas de mercado realizadas periodicamente pelo Banco Central do Brasil – quando se modela o prêmio pelo risco cambial através de modelos auto-regressivos condicionais generalizados de heteroscedasticidade na Média (GARCH-M).
Resumo:
A Índia, com sua notável expansão econômica, cultura e filosofia milenares, é o tema desse trabalho, com dois objetivos: exemplificar diversos aspectos teóricos ligados ao crescimento econômico e aprofundar o estudo de um aspecto institucional pouco difundido na literatura, os impactos das filosofias religiosas. A princípio, são analisadas as reformas econômicas realizadas após a crise do balanço de pagamentos ocorrida em 1991. Diversos estudos teóricos são citados ao longo do texto para contextualizar o efeito das reformas no potencial de crescimento. O setor externo é analisado com profundidade, seguido pela desregulamentação no setor privado, principalmente na atividade industrial e no controle de preços. Estes dois setores foram conjuntamente responsáveis pelo grande salto de produtividade na economia (descrito pelos impactos na produtividade total dos fatores). Alguns aspectos de política monetária e fiscal também são analisados, mas com menor ênfase, visto que as reformas e resultados nesses setores são limitados. A seguir, apresenta-se análise sobre a filosofia Hindu, predominante no país. Introduz-se o tema com breve descrição dos aspectos filosóficos, para seguir com avaliação dos impactos econômicos resultantes. Max Weber e Amartya Sen contradizem-se sobre o sinal do impacto: Weber suportando que a magia hindu impediria o racionalismo; Sen argumentando que o próprio hinduísmo tem histórico de racionalismo heterodoxo, de contestação e criação. Para disseminar dúvidas apresenta-se um modelo econométrico, com base em convergência condicional: impactos diretos e indiretos não se mostram significantes. Levanta-se um debate e um alento a alguns países: um histórico institucional bastante desalentador ao desenvolvimento, baseado em uma filosofia religiosa controversa de nuances pós-vida, pode ser superado com algumas corretas reformas na economia.
Resumo:
Há forte evidência que os retornos das séries financeiras apresentam caudas mais pesadas que as da distribuição normal, principalmente em mercados emergentes. No entanto, muitos modelos de risco utilizados pelas instituições financeiras baseiam-se em normalidade condicional ou não condicional, reduzindo a acurácia das estimativas. Os recentes avanços na Teoria de Valores Extremos permitem sua aplicação na modelagem de risco, como por exemplo, na estimação do Valor em Risco e do requerimento de capital. Este trabalho verifica a adequação de um procedimento proposto por McNeil e Frey [1999] para estimação do Valor em Risco e conseqüente requerimento de capital às principais séries financeiras de retornos do Brasil. Tal procedimento semi-paramétrico combina um modelo GARCH ajustado por pseudo máxima verossimilhança para estimação da volatilidade corrente com a Teoria de Valores Extremos para estimação das caudas da distribuição das inovações do modelo GARCH. O procedimento foi comparado através de backtestings com outros métodos mais comuns de estimação de VaR que desconsideram caudas pesadas das inovações ou a natureza estocástica da volatilidade. Concluiu-se que o procedimento proposto por McNeil e Frey [1999] mostrou melhores resultados, principalmente para eventos relacionados a movimentos negativos nos mercados . Futuros trabalhos consistirão no estudo de uma abordagem multivariada de grandes dimensões para estimação de VaR e requerimento de capital para carteiras de investimentos.
Resumo:
O objetivo deste trabalho foi mostrar modelagens alternativas à tradicional maneira de se apurar o risco de mercado para ativos financeiros brasileiros. Procurou-se cobrir o máximo possível de fatores de risco existentes no Brasil; para tanto utilizamos as principais proxies para instrumentos de Renda Fixa. Em momentos de volatilidade, o gerenciamento de risco de mercado é bastante criticado por trabalhar dentro de modelagens fundamentadas na distribuição normal. Aqui reside a maior contribuição do VaR e também a maior crítica a ele. Adicionado a isso, temos um mercado caracterizado pela extrema iliquidez no mercado secundário até mesmo em certos tipos de títulos públicos federais. O primeiro passo foi fazer um levantamento da produção acadêmica sobre o tema, seja no Brasil ou no mundo. Para a nossa surpresa, pouco, no nosso país, tem se falado em distribuições estáveis aplicadas ao mercado financeiro, seja em gerenciamento de risco, precificação de opções ou administração de carteiras. Após essa etapa, passamos a seleção das variáveis a serem utilizadas buscando cobrir uma grande parte dos ativos financeiros brasileiros. Assim, deveríamos identificar a presença ou não da condição de normalidade para, aí sim, realizarmos as modelagens das medidas de risco, VaR e ES, para os ativos escolhidos, As condições teóricas e práticas estavam criadas: demanda de mercado (crítica ao método gausiano bastante difundido), ampla cobertura de ativos (apesar do eventual questionamento da liquidez), experiência acadêmica e conhecimento internacional (por meio de detalhado e criterioso estudo da produção sobre o tema nos principais meios). Analisou-se, desta forma, quatro principais abordagens para o cálculo de medidas de risco sendo elas coerentes (ES) ou não (VaR). É importante mencionar que se trata de um trabalho que poderá servir de insumo inicial para trabalhos mais grandiosos, por exemplo, aqueles que incorporarem vários ativos dentro de uma carteira de riscos lineares ou, até mesmo, para ativos que apresentem risco não-direcionais.
Resumo:
Este trabalho estuda a lucratividade dos modelos de Análise Técnica no mercado de câmbio brasileiro. Utilizando a metodologia de White (2000) para testar 1712 regras geradas a partir de quatro modelos de Análise Técnica verifica-se que a melhor regra não possui poder de previsibilidade significante ao se considerar os efeitos de data-snooping. Os resultados indicam que o mercado de câmbio brasileiro está de acordo com a hipótese de mercado eficiente sugerida pela literatura.
Resumo:
Este trabalho tem por objetivo propor uma carteira composta por posições compradas e vendidas de ações que supere os principais Índices de mercado. O resultado é obtido através de um modelo de Lógica Fuzzy, que é um modelo de inteligência artificial que trata os dados de maneira lógica, ou seja, sem relacionar as variáveis através de modelos matemáticos convencionais. Para esse estudo utilizamos como variáveis de entrada os múltiplos Preço/Lucro Esperado e Preço/Valor Patrimonial da Empresa de cada ação considerada. Foram estudadas as ações do mercado americano pertencentes ao índice S&P 500, do ano de 2000 até 2007. Com o intuito de comparar a eficiência do Modelo de Lógica Fuzzy, utilizamos o modelo de Regressão Linear Multivariada e os índices de mercado S&P 500 e o S&P 500 com uma modificação para se adequar aos dados escolhidos para o estudo. O modelo proposto produziu resultados satisfatórios. Para quase todos os anos estudados o retorno da carteira obtida foi muito superior ao dos Índices de mercado e do modelo linear convencional. Através de testes adequados comprovamos estatisticamente a eficiência do modelo em comparação aos Índices de mercado e ao modelo linear convencional.