1000 resultados para Incerteza agregada
Resumo:
A dissertação busca combinar Modelos Configuracionais Urbanos e Modelos Econométricos com o objetivo de ampliar o conhecimento existente sobre o mercado imobiliário residencial em Porto Alegre. Mais especificamente, são estudados os Modelos Configuracionais de Centralidade e de Oportunidade Espacial propostos para simular o crescimento da cidade, e o Modelo de Preços Hedônicos, geralmente usado para inferir sobre a valorização de atributos dos imóveis e de sua localização. Os coeficientes gerados pelo Modelo de Preços Hedônicos são sugeridos como possível especificação requerida pelo Modelo de Oportunidade Espacial para determinar a probabilidade de um espaço urbano ser ocupado por diferentes padrões construtivos, já que essa oportunidade leva em conta a proximidade ou presença de certos elementos de valorização. As características estudadas são relativas ao imóvel em si, tais como padrão de acabamento e área, relativas à qualidade de seu entorno, como a renda média dos vizinhos e a presença de habitações precárias e relativas a sua acessibilidade a itens como o rio, pólos de comércio e serviços e a centros locais. Esse último atributo corresponde ao grau de centralidade agregada dos centros locais determinado em estudo realizado pelo PROPUR para a cidade de Porto Alegre utilizando o Modelo Configuracional de Centralidade, e que indica as áreas com concentração de atividades e animação urbanas.
Resumo:
O processo produtivo das organizações hospitalares necessita acompanhar as exigências estabelecidas pelos novos paradigmas da sociedade. Frente a esse desafio e considerando a complexidade dessas organizações, torna-se fundamental o uso de sistemas de informações que consigam reduzir o nível de incerteza dos processos decisórios. Este trabalho tem como objetivo aperfeiçoar a função de controle da gestão hospitalar, através da aplicação do método de custeio baseado em atividades, ou ABC (Activity-Based Costing), que busca melhor compreender o processo produtivo, para avaliar e custear, dando subsídios para a melhoria da eficiência econômica. Foram acompanhados pacientes internados com câncer de esôfago da especialidade de Cirurgia Geral de um hospital universitário. O desenvolvimento contou com a análise dos processos, identificação dos recursos envolvidos, direcionadores primários e secundários, que permitiram a apuração do custo por paciente e a análise de valor agregado (AVA). Do processo de internação, o estudo identificou 9 subprocessos (Admissão, Anamnese e Exame Físico, Prescrição pré-cirúrgica, Prescrição pós-cirúrgica, Diagnóstico, Reavaliação médica, Operação Cirúrgica, Prescrição de alta e Suporte ao 18 leito). Para cada subprocesso, avaliaram-se quais recursos da estrutura do hospital foram empregados, de forma a quantificar a participação de cada um nos respectivos subprocessos, através dos direcionadores primários. Definidos os recursos e sua participação, a fase seguinte foi verificar em que medida os recursos foram empregados pelas atividades durante o atendimento ao paciente. A partir da análise de processos, as atividades foram identificadas, sendo estabelecido um indicador que mensurasse o uso da atividade pelo paciente, os direcionadores secundários. Os resultados indicam que o ABC oferece níveis de detalhamento do processo de prestação de serviço hospitalar mais elevados do que nos sistemas tradicionais de custos e consegue perceber melhor o uso dos recursos durante o atendimento, em conseqüência, auferindo o custo de cada paciente com maior precisão. Além disso, permite a análise de valor agregado de todo o processo produtivo, auxiliando a organização a atingir os objetivos e permitindo enfrentar em melhores condições as alterações no ambiente interno e externo. Na medicina é dito que cada paciente é um caso, porque, ainda que a ciência tenha avançado muito nos últimos anos, as características pessoais e as reações a cada ação médica encontram uma variabilidade muito grande. No ABC, cada paciente passa a ser um objeto de custo, que absorverá os recursos necessários à conduta a ser seguida, permitindo melhor avaliar e controlar o desempenho do processo produtivo e auxiliando no processo decisório.
Resumo:
Sistemas de previsão de cheias podem ser adequadamente utilizados quando o alcance é suficiente, em comparação com o tempo necessário para ações preventivas ou corretivas. Além disso, são fundamentalmente importantes a confiabilidade e a precisão das previsões. Previsões de níveis de inundação são sempre aproximações, e intervalos de confiança não são sempre aplicáveis, especialmente com graus de incerteza altos, o que produz intervalos de confiança muito grandes. Estes intervalos são problemáticos, em presença de níveis fluviais muito altos ou muito baixos. Neste estudo, previsões de níveis de cheia são efetuadas, tanto na forma numérica tradicional quanto na forma de categorias, para as quais utiliza-se um sistema especialista baseado em regras e inferências difusas. Metodologias e procedimentos computacionais para aprendizado, simulação e consulta são idealizados, e então desenvolvidos sob forma de um aplicativo (SELF – Sistema Especialista com uso de Lógica “Fuzzy”), com objetivo de pesquisa e operação. As comparações, com base nos aspectos de utilização para a previsão, de sistemas especialistas difusos e modelos empíricos lineares, revelam forte analogia, apesar das diferenças teóricas fundamentais existentes. As metodologias são aplicadas para previsão na bacia do rio Camaquã (15543 km2), para alcances entre 10 e 48 horas. Dificuldades práticas à aplicação são identificadas, resultando em soluções as quais constituem-se em avanços do conhecimento e da técnica. Previsões, tanto na forma numérica quanto categorizada são executadas com sucesso, com uso dos novos recursos. As avaliações e comparações das previsões são feitas utilizandose um novo grupo de estatísticas, derivadas das freqüências simultâneas de ocorrência de valores observados e preditos na mesma categoria, durante a simulação. Os efeitos da variação da densidade da rede são analisados, verificando-se que sistemas de previsão pluvio-hidrométrica em tempo atual são possíveis, mesmo com pequeno número de postos de aquisição de dados de chuva, para previsões sob forma de categorias difusas.
Resumo:
Novas centrais térmicas utilizam carvão ROM (Run of mine) na sua alimentação. Sem o processamento do minério as flutuações de qualidade do carvão serão transferidas da mina para o consumidor final. Freqüentemente, contratos entre produtor-consumidor estabelecem limites pré-estabelecidos de parâmetros geológicos e tecnológicos como enxofre, cinzas e poder calorífico. Lotes de minério com qualidade fora dos limites estabelecidos podem ser rejeitados ou penalizados. O custo elevado dessas penalizações recomenda a homogeneização do minério ROM. As principais estratégias de homogeneização são as baseadas em técnicas geoestatísticas, as pilhas de homogeneização e as usinas de beneficiamento ou metalúrgicas. A estratégia de homogeneização baseada em técnicas geoestatísticas apresenta os menores custos de implementação, no entanto o conhecimento do depósito deverá ser fundamental. Tradicionalmente, essa estratégia de homogeneização utiliza um modelo de blocos gerado por um estimador tradicional, geralmente krigagem ordinária. A estimativa dos blocos por krigagem não considera a incerteza associada ao modelo geológico, não sendo adequada para prever flutuações locais Diferente da krigagem, os métodos de simulação geoestatística têm como objetivo reproduzir a variabilidade in situ e a continuidade espacial dos dados originais. Uma vez que os teores e sua variabilidade são estimados, flutuações da qualidade do minério podem ser previstas para determinada rota de lavra e certo tamanho de lote entregue ao consumidor. Diferentes tamanhos de lote são testados a fim de obter-se o controle das flutuações da qualidade do minério. Este trabalho apresenta um procedimento para acessar a variabilidade dos teores e predizer a sua flutuabilidade para diferentes tamanhos de lote em um estudo de mineração subterrânea de carvão no sul do Brasil. Simulação geoestatística e planejamento de lavra apropriado proporcionam uma solução para o problema de homogeneização de minérios.
Resumo:
Apesar da grande evolução, a questão da precificação de ativos encontra-se ainda cercada de incertezas e indefinições quanto à forma como esta deve ser feita. A incerteza por parte dos investidores em relação aos resultados a serem obtidos em suas aplicações no mercado financeiro gera forte demanda por modelos mais precisos quanto à capacidade de quantificação do retorno esperado. Este trabalho procura, em uma análise preliminar, estudar, utilizando o tratamento estatístico de regressão múltipla, os fatores explicativos dos retornos diferenciais das ações na Bolsa de Valores de São Paulo (Bovespa) no período de janeiro de 1995 a dezembro de 1999. Em seguida, visa-se analisar, através de um teste comparativo de desempenho envolvendo simulação de investimentos em portfolios de ações, a capacidade do Modelo de Fator de Retorno Esperado de Haugen e Baker (1996) e da APT (Arbitrage Pricing Theory) de Ross (1976) em prognosticar os retornos das 70 ações incluídas na amostra. Por fim, levanta-se o perfil de risco e liquidez dos portfolios selecionados pelos modelos a fim de verificar a relação risco-retorno. Os resultados apontaram sete fatores capazes de explicar o retorno diferencial mensal das ações. Contrapondo-se aos pressupostos teóricos, nenhum fator de risco inseriu-se no grupo de fatores selecionados. Já os fatores que apresentaram significância estatística em suas médias, dois inserem-se no grupo liquidez, três referem-se aos parâmetros de valor das ações e dois estão relacionados ao histórico de preços das ações. Comparando os resultados obtidos pelos modelos inseridos neste estudo, conclui-se que o Modelo de Fator de Retorno Esperado é mais eficiente na tarefa de predizer os retornos futuros das ações componentes da amostra. Este, além de ter alcançado uma média de retornos mensais superior, foi capaz de sustentar retorno acumulado superior ao da APT durante todo o período de teste (jan/2000 a dez/2002). Adicionalmente, o uso deste modelo permitiu selecionar portfolios com um perfil de menor risco.
Resumo:
Os mercados internacionais de capital cresceram dramaticamente desde meados da década de 60. Embora reflitam parcialmente as economias em expansão, o aumento do comércio mundial e a globalização da produção, os movimentos internacionais de capital envolvem também fatores puramente financeiros que se propagam com velocidade perceptivelmente maior. Assim, ainda que tenham permitido o alívio das restrições financeiras impostas pela crise da dívida dos anos 80, e melhorado os índices de eficiência e alocação de capital para o conjunto das economias da América Latina, os volumosos influxos financeiros também suscitaram preocupação em razão de seus efeitos sobre a estabilidade macroeconômica, a competitividade do setor exportador e as políticas de crescimento e desenvolvimento sustentado dessas economias. Neste contexto, aos policymakers, através do adequado gerenciamento das políticas micro e macroeconômicas, recai, em última instância, a responsabilidade em minimizar eventuais condições de desajuste estrutural e conseqüente incerteza, visto que ingressos elevados e repentinos de capital podem causar instabilidade mediante crescimento rápido do consumo, inflação crescente, valorização da taxa de câmbio real e déficits cada vez maiores de conta corrente.
Resumo:
Em planejamento de lavra, freqüentemente as campanhas de sondagem são complementadas por falta de segurança nas estimativas. Na maioria dos casos, essas sondagens adicionais são locadas sem o uso de qualquer procedimento matemático que indique os locais mais carentes de informação. Essa dissertação propõe uma metodologia fundamentada em simulação estocástica para tratar esse problema. Com a utilização desse método, é possível que seja considerada a variabilidade entre as informações, além da configuração espacial apresentada. Essa metodologia permite gerar várias estimativas equiprováveis do atributo em questão, reproduzindo o histograma e o variograma das informações originais. A variabilidade apresentada pelos conjuntos de n valores equiprováveis, em cada bloco discretizado da jazida, é medida por meio do cálculo de índices de incerteza. Esses índices são calculados após o processo de simulação estocástica por meio da compilação das n estimativas realizadas para cada bloco. Os índices de incerteza considerados nessa dissertação são: (i) variância condicional; (ii) coeficiente de variação condicional e (iii) intervalo entre quartis. A partir da classificação desses índices de incerteza, são identificados os setores que apresentam as maiores variabilidades em suas estimativas. Com essa classificação é possível a confecção de mapas de incerteza que auxiliam na visualização dos setores/blocos mais variáveis da jazida Nesses setores, são adicionadas informações oriundas da escolha aleatória de um dos n valores equiprováveis disponíveis para cada bloco simulado. Por meio dos índices de incerteza e de acordo com a metodologia, são propostas informações adicionais na área considerada, que contribuem na diminuição das incertezas globais e locais. Essa metodologia usa técnicas extremamente robustas, com embasamento teórico muito consistente, atacando diretamente os setores/blocos que apresentam as maiores flutuabilidades nas estimativas. Um estudo de caso em uma jazida de carvão verifica a aplicabilidade do método. Esse estudo, considera a variabilidade nas estimativas de espessura de uma camada carvão.
Resumo:
A divisão do processo de planejamento e controle da produção (PCP) em diferentes níveis hierárquicos é um dos mecanismos básicos para lidar com a incerteza. Por outro lado, a falta de integração entre estes níveis é apontada como uma dos obstáculos mais importantes à eficácia deste processo, uma vez que dificulta que as decisões tomadas nos diferentes níveis gerenciais sejam consistentes entre si. Este problema é particularmente importante em empreendimentos de construção, os quais, em função de sua complexidade e da incerteza envolvida, em geral requerem freqüentes modificações nos planos, podendo estas ser consideravelmente trabalhosas. O objetivo geral do presente trabalho consiste em propor diretrizes para a interligação do processo de planejamento e controle nos níveis de longo, médio e curto prazo, através da utilização de pacotes computacionais tradicionais, assim como contribuir para a consolidação e refinamento do modelo de PCP proposto por Formoso et al. (1999). O trabalho realizado foi dividido em três grandes etapas. A primeira delas compreendeu a realização de uma pesquisa bibliográfica. A segunda etapa consistiu no desenvolvimento de dois estudos de caso, realizados em empresas de construção do Estado da Bahia, uma delas atuante nos mercados de obras públicas e a outra em incorporações imobiliárias para a classe média-alta. Por fim, na terceira etapa foram analisados os resultados e propostas as diretrizes para a interligação dos diferentes níveis do PCP Entre as conclusões, pode-se destacar que a eficácia dos planos produzidos em pacotes computacionais depende fortemente da existência de um plano de ataque da obra, o qual deve ser discutido com a gerência da produção e explicitado graficamente, de forma a aumentar a transparência de processos. Quando o plano de longo prazo não é elaborado adequadamente, levando em conta as reais necessidades da gerência de produção, o esforço despendido na realização de alterações tende a ser muito grande, dificultando a utilização deste plano para controle em tempo real. O estudo também sugere um conjunto de indicadores que permitem avaliar o cumprimento de prazo e a aderência entre planos de diferentes níveis gerenciais. Estes indicadores são obtidos com relativa facilidade, a partir da utilização do pacote computacional MSProject. Finalmente, o estudo oferece algumas contribuições relativas a critérios para a definição de pacotes de trabalho, à medida que os planos necessitam serem detalhados nos níveis de médio e curto prazo.
Resumo:
Este trabalho tem como objetivo principal demonstrar uma nova metodologia que utilizará um motor automotivo adaptado a um módulo experimental onde será possível realizar-se medições da intensidade de detonação, e a partir desses valores determinar a octanagem dos combustíveis ensaiados, sendo este um método que oferece uma nova alternativa de baixo custo se comparado aos métodos tradicionais que utilizam motores CFR (Co-operative Fuel Research) fabricados pela Waukesha para determinação da octanagem dos combustíveis. O módulo experimental é composto por um motor automotivo acoplado a um freio eletromagnético e por sensores instalados em pontos estratégicos do motor que informam, em tempo real, os valores dos parâmetros de funcionamento do mesmo. A octanagem, para ser medida, a exemplo do que ocorre nos motores CFR, depende da ocorrência de detonação que é provocada durante a realização dos ensaios para que o valor de sua intensidade e o valor dos demais parâmetros de funcionamento do motor neste instante possam ser registrados. Para que pudesse ocorrer detonação em baixa rotação fez-se necessário à alteração do volume da câmera de combustão do motor utilizado, a fim de aumentar sua taxa de compressão e favorecer o aparecimento do fenômeno Durante a realização dos ensaios, no módulo experimental, utilizaram-se dois computadores para monitorar os parâmetros de funcionamento do motor e armazenar as informações adquiridas a partir da placa de aquisição de dados que transforma os sinais analógicos dos sensores em informações digitais, as quais serão utilizadas nos cálculos e na construção de gráficos para análise dos resultados do experimento. Após realizar-se os ensaios utilizando-se combustíveis de referência com diferentes valores de octanagem, foi possível determinar a exatidão dos resultados obtidos pelo método proposto comparando-os com os valores obtidos no motor CFR, sendo que o módulo experimental permitiu medir os valores de octanagens com uma incerteza de ± 1,66 octanas em um intervalo de confiança de 95,45%.
Resumo:
Tradicionalmente, pesquisa na área de metodologia da Ciência Econômica consiste em estudar as implicações de teorias epistemológicas para Economia, sem se preocupar muito com que os economistas realmente fazem. Uma abordagem mais moderna procura lançar um olhar mais reflexivo sobre atividade dos economistas. Isto é, parte-se do que os economistas realmente fazem e, depois, empreende-se uma análise filosófica. Neste contexto, formação filosófica conhecimento teórico possuem mesma importância para produção científica em Metodologia. Adicionalmente, cumpre notar que são poucos os trabalhos que procuram analisar as contribuições mais recentes Teoria Econômica, lançando olhar da Metodologia para fronteira da ciência. Assim, novas correntes novas áreas da Economia carecem de uma avaliação epistemológica, ainda que vaga preliminar. escolha de temas já consagrados pode ser explicada pela segurança de explorar, sob um ponto de vista metodológico, um corpo de conhecimento científico coeso pouco mutável. Desse modo, análise não corre grande risco de se tornar anacrônica ou de ser parcial. Por outro lado, esquecimento da fronteira do conhecimento desvia atenção da relação entre processo de construção da teoria e a comunidade científica. risco da escolha de um tema mais de vanguarda é a superação da análise rapidamente pelo tempo, superfícialidade por falta de elementos mais sedimentados os erros de julgamento a respeito do que relevante. Apesar disso, os frutos de uma aventura no terreno movediço do saber econômico parecem mais que compensar eventuais pecados na análise metodológica dos temas considerados. Um outro ponto importante forma com que os temas vinculados tradição Neoclássica são tratados, no Brasil, pelos metodologistas da ciência econômica. Com efeito, existem trabalhos sobre Equilíbrio Geral Arrow-Debreu, todavia muito poucos procuram incorporar elementos tais como incerteza, dinâmica, formação de expectativas, os quais robustecem aproximam Modelo tradicional Arrow-Debreu da realidade. Assim, ao considerar apenas Teoria de Equilíbrio Geral Estática já consagrada, muitas críticas metodológicas perdem sua força quando observação feita um nível mais abrangente, considerando as contribuições mais modernas. presente trabalho uma contribuição Metodologia, todavia procura responder às críticas esboçadas nos parágrafos precedentes. De fato, trata-se de uma análise metodológica que toma como ponto de partida contribuições próximas fronteira do conhecimento, que estão vinculadas tradição Neoclássica, sem contudo constituir uma Teoria de Equilíbrio de Mercados. De resto, trabalho faz um pouco de História do Pensamento recente ao escolher Ronald Coase como fio condutor da exposição, além de conter algumas resenhas dos temas considerados. trabalho toma forma de três ensaios. primeiro se concentra na obra de Ronald Coase,e usa arcabouço da Indeterminação de Sênior para avaliar contribuição deste pensador para Economia. segundo consiste numa resenha seletiva das modernas contribuições Teoria da Firma, qual usada como elemento para construção de uma análise metodológica, que busca estabelecer as conexões entre trabalho pioneiro de Coase sobre natureza da firma, e as contribuições posteriores esse tema. questão saber qual influência das concepções de Ronald Coase sobre trabalhos posteriores que buscam explicar que firma. possível estabelecer uma relação de continuidade entre as idéias originais de Coase esses desdobramentos posteriores? Quais os limites dessa relação? Até que ponto as contribuições mais novas sobre teoria da firma descendem de Coase terceiro ensaio realiza uma exposição sumária de três Modelos na área da Economia das Instituições Jurídicas ("Law and Economics"), onde Coase também foi um pioneiro, em seguida, usando os modelos como exemplos estilizados, procura discutir forma como as instituições estão sendo incorporadas Teoria Econômica, suas implicações para relação entre Economia outras Ciências Sociais. guisa de conclusão, vale enfatizar convicção de que pesquisa em Metodologia da Ciência um terreno rico, desde que foco de análise fique mais abrangente procure avaliar não só os fundamentos as Teorias já consagradas como também novas áreas, novas abordagens contribuições de ponta, as quais, efetivamente movimentam Pesquisa em Economia.
Resumo:
Muitos problemas de Dinâmica em Economia se encaixam dentro de uma estrutura de modelos de decisão seqüencial, sendo resolvidos recursivamente. Programação Dinâmica uma técnica de otimização condicionada que se encarrega de solucionar problemas desse tipo. Esse trabalho tem como objetivo apresentar uma resenha dos principais resultados teóricos em Programação Dinâmica. Os métodos da Programação Dinâmica são válidos tanto para problemas determinísticos como para os que incorporam variável incerteza. esperada objetividade de uma dissertação de Mestrado, no entanto, nos impediu de extender análise, deixando assim de considerar explicitamente neste trabalho modelos estocásticos, que teria enriquecido bastante parte destinada aplicações Teor ia Econômica. No capítulo desenvolvemos instrumental matemático, introduzindo uma série de conceitos resultados sobre os quais se constrói análise nos capítulos subsequentes. Ilustramos tais conceitos com exemplos que seguem um certo encadeamento. Nas seções 1.1 1.2 apresentamos as idéias propriedades de espaços métricos espaços vetoriais. Na seção 1.3, prosseguimos com tópicos em análise funcional, introduzindo noção de norma de um vetor de espaços de Banach. seção 1.4 entra com idéia de contração, Teor ema do Ponto Fixo de Banach e o teor ema de Blackwell. O Teorema de Hahn-Banach, tanto na sua forma de extensão quanto na sua forma geométrica, preocupação na seção 1.5. Em particular, forma geométrica desse teorema seus corolários são importantes para análise conduzida no terceiro capítulo. Por fim, na seção 6, apresentamos Teorema do Máximo. Ao final deste capítulo, como também dos demais, procuramos sempre citar as fontes consultadas bem como extensões ou tratamentos alternativos ao contido no texto. No capítulo II apresentamos os resultados métodos da Programação Dinâmica em si seção 2.1 cuida da base da teoria, com Princípio da Otimal idade de Eellman e a derivação de um algoritmo de Programação Dinâmica. Na seção 2.2 mostramos que esse algoritmo converge para função valor ótima de um problema de horizonte infinito, sendo que esta última satisfaz chamada Equação de Bellman. seção seguinte se preocupa em fornecer caracterizaçBes para função valor mencionada acima, mostrando-se propriedades acerca de sua monotonicidade concavidade. seção 2.4 trata da questão da diferenciabi idade da função valor, que permite se obter alguns resultados de estática Cou dinâmica} comparativa partir da Equação de Bellman. Finalmente, na seção 2.5 apresentamos uma primeira aplicação Teoria Econômica, através de um modelo de crescimento econômico ótimo. No capítulo III introduzimos uma outra técnica de otimização Programação Convexa- mostramos dificuldade em se tentar estabelecer alguma relação de dominância entre Programação Dinâmica Programação Convexa. Na seção 3.2 "apresentamos os Teoremas de Separação, dos quais nos utilizamos na seção seguinte para demonstrar existência de Multiplicadores de Lagrange no problema geral da Programação Convexa. No final desta seção dizemos porque não podemos inferir que em espaços de dimensão infinita Programação Convexa não pode ser aplicada, ao contrário da Programação Dinâmica, que evidenciaria uma dominancia dessa última técnica nesses espaços. Finalmente, capítulo IV destinado uma aplicação imediata das técnicas desenvolvidas principalmente no segundo capítulo. Com auxílio dessas técnicas resolve-se um problema de maximização intertemporal, faz-se uma comparação dos resultados obtidos através de uma solução cooperativa de uma solução não-cooperativa.
Resumo:
O objetivo deste trabalho apresentar uma visão de valoração do investimento alternativa tradicional de Net Present Value -Valor Presente Liquido. Esta visão alternativa inclui irreversibilidade, incerteza custo de oportunidade de se esperar para realizar investimento. Desta forma pode existir uma situação onde se tenha um projeto de investimento com NPV positivo mas que seja mais interessante esperar mais um período de tempo para realizar investimento.
Resumo:
A proposta deste trabalho é modelar o apreçamento de projetos de investimento na área da bioprospecção. Para isto, utilizamos a técnica de opções reais aplicada a um contrato sujeito a três tipos de incerteza: custos, Fluxos de caixa e a própria descoberta do ativo subjacente, no caso, o princípio ou composto biotecnológico. Dentro deste arcabouço, obtivemos expressões matemáticas para o valor instantâneo de um projeto em caso de sucesso e para o pay-o¤ de uma opção real de abandono. Através de simulações e análises de sensibilidade, mostramos que existe um período ótimo de concessão e que o valor da mesma, em conjunto com outros parâmetros do modelo, pode inibir o investimento sob o ponto de vista de um investidor privado.
Resumo:
Na utilização de variados tipos de financiamento, a empresa necessita, primariamente, da análise do custo do capital - custo básico para remuneração dos recursos próprios e de terceiros que compõem a estrutura de capital - o qual deve ser a taxa referencial para haver retorno do investimento e geração_ de valor, emergindo, por conseguinte, a discussão acerca da repercussão do nível de endividamento, e, conseqüentemente, do custo de capital sobre o valor da empresa. Nesse contexto, existem modelos que consideram o endividamento irrelevante no valor da empresa, como: análise pelo Lucro Operacional ou de Modiglianni e Miller sem Imposto de Renda. Em outro extremo, há abordagens que o têm como função direta para o valor, como a do Lucro Líquido e de Modigliani e Miller com imposto de renda. Entre essas posições antagônicas podem ser citadas a posição Tradicional e do Custo de Dificuldades Financeiras, que admitem a influência do endividamento após determinado nível de alavancagem. A Teoria da Informação Assimétrica, por sua vez, sustenta ser a sinalização enviada com mudanças na estrutura de capital fator de influência no valor da empresa. No modelo de avaliação por Opções, argumenta-se que, dentro de determinadas hipóteses, a riqueza dos acionistas é incrementada por uma alavancagem financeira mais elevada. A avaliação em situação de incerteza para a empresa é refletida no modelo que utiliza o Capital Asset Price Model, onde argumenta-se que um aumento no endividamento eleva o beta e, conseqüentemente, o retorno esperado. Por último, há a análise baseada em fluxos de caixa onde o valor presente da empresa é adicionado ao valor presente líquido dos efeitos intrínsecos ao financiamento. O cálculo do valor da empresa também pode ser feito através do fluxo de caixa do acionista descontado pela taxa de remuneração do capital próprio ou fluxo operacional descontado pelo custo médio ponderado do capital, subtraindo o valor do endividamento. Este trabalho se propôs a analisar, durante o período 1994-1998, a relação do endividamento com o custo médio ponderado do capital e com valor de mercado de oito empresas, componentes de amostra representativa do setor siderúrgico brasileiro, e também a estimar o valor do capital próprio, através do modelo de desconto do fluxo de caixa operacional pelo custo médio ponderado do capital, verificando a aderência dessa avaliação, através de comparação com o valor de mercado observado. Pela análise dos resultados observamos, uma relação inversa entre custo médio do capital e endividamento. No que se refere à avaliação da empresa, o modelo apresentado de desconto pelo custo médio ponderado do capital, revelou-se de modo geral, satisfatório, com o valor estimado explicando 68% do valor de mercado, na análise da regressão; sendo que as maiores distorções foram verificadas nas empresas que tiveram grau de alavancagem elevado.
Resumo:
Neste trabalho é estudada a trajetória de transição de variáveis macroe- conômicas e os efeitos sobre o bem-estar causados por uma mudança no sistema de previdência social. É utilizado um modelo com incerteza e restrição a crédito, para o qual é desenvolvido um método para simular a transição. Inicialmente é feita uma comparação de steady states para identificar o sistema ótimo no longo prazo. Com a inserção de um fator fixo, terra, na função de produção, é elimi- nada a possibilidade de ineficiência dinâmica e os resultados indicam um sistema de capitalização plena como ótimo. Na transição, a presença do fator fixo gera uma valorização inesperada dos ativos, devido ao preço da terra ser baseado na trajetória futura da renda. Isto vale tanto para uma transição inesperada quanto anunciada. A simulação da transição parte de dois casos extremos: encerrando-se os benefícios inesperadamente e baseando-se no direito adquirido para as gerações vivas. Também são simulados os casos intermediários. Uma contribuição impor- tante deste trabalho é a mensuração e comparação das variações de bem-estar de cada processo de transição através da taxa de desconto social correspondente. Esta taxa seria a necessária para tornar a sociedade indiferente à reforma, o que é medido através de um cálculo de utilidade total. As simulações indicam que a transição que minimiza as perdas sociais é aquela em que os inativos são taxados em 30%.