1000 resultados para Estimação de custo
Resumo:
Na formação de uma estrutura de capital ideal, isto é, uma estrutura que minimizasse o custo de capital da empresa. A análise de custo de capital, chamada "abordagem dos lucros líquidos operacionais", que levava ao mesmo resultado prático da tese de M-M, entretanto, o nosso trabalho versará especificamente sobre a tese da irrelevância dos dividendos já defendida por outroras, porém, colocaremos numa forma clara e sequencial, apresentado nesta dissertação.
Resumo:
O presente artigo tem por objetivo demonstrar como a gestão de derivativos e a participação de capital estrangeiro afetam o custo de capital das empresas. Para essa finalidade o trabalho irá testar como impactam nos custos de capital WACC (Weighted Average Cost of Capital) e TACC (Total Average Cost of Capital), ou custo de capital total. Utilizando uma base de dados construída com dados do Economatica, bem como informações retiradas dos demonstrativos financeiros das empresas, estimaram-se três modelos para explicar quais seriam as variáveis que poderiam impactar o custo de capital das empresas. No primeiro modelo explicou-se o WACC (custo de capital médio ponderado), no segundo, o TACC (custo de capital total) e, no terceiro modelo, explicou-se a diferença entre o WACC e o TACC, quando diferente de zero. No caso do WACC a variável de teste derivativo, que demonstra empresas que possuem hedges de proteção, reduz o custo de capital, entretanto a variável estrangeiro que reflete a presença de capital estrangeiro foi estatisticamente não significativa. Já para o TACC a variável de teste estrangeiro não foi estatisticamente significativa e a variável derivativo não esteve presente. Entende-se que isto ocorre pelo fato de empresas mais conservadoras possuírem menor custo de capital.
Resumo:
No artigo serão investigadas as expectativas e assimetrias de informação que os agentes possuem a respeito de um determinado ativo financeiro, no nosso caso as ações preferenciais da Petrobrás. Para isso utilizaremos duas metodologias. A primeira é baseada em Bates (1991) onde através da estimação de parâmetros implícitos nos prêmios de opções é possível extrair informação sobre vários momentos da distribuição de probabilidade do ativo objeto referente à opção. A outra metodologia segue Easley et al (1996) e através da análise dos microdados dos preços de ativos fornece uma metodologia para inferir acerca da assimetria de informação entre os agentes, ou seja, se existem pessoas com um nível de informação maior do que outras negociando um ativo. Os resultados obtidos mostram que a metodologia discutida em Bates (1991) foi eficiente para captar a expectativa de mercado dos agentes, principalmente na reversão da crise do subprime em 2008 e que as ações da Petrobrás apresentam baixos valores para probabilidade da negociação ser com informação gerando um menor custo aos agentes que chegam ao mercado menos informados.
Resumo:
A teoria do custo padrão ressente-se de um tratamento matemático, como o que aqui é proposto. Conforme foi salientado no início, este tratamento matemático, embora substancialmente simples, é todavia absolutamente rigoroso e também é completo quando visto do prisma que se adotou. Modelamos a distinção necessariamente explícita entre a produção contínua e a produção descreta, através do uso dos modelos algébricos a dois e três fatores, respectivamente. Unificamos de uma maneira sitemática a abordagem dos três elementos básicos do custo, simplificando de um lado e generalizando do outro. Esta unificação levou aos elementos diretos também, como deve ser, todo o rigorismo analítico do elemento indireto. Ampliou-see a estreita visão das variações de preço e quantidade com a consideração da variação de unidades, qua acarretou automaticamente a substituição do conceito de variação total pelo de variação total orçamentária. A modelagem algébrica não tem a vantagem da visualidade que a modelagem gráfica oferece, mas tem, por outro lado, a superioridade que a generalização apresente. Com efeito, foi a generalização das definições das variações que permitiu os resultados obtidos, aqui resumidos. Mas as razões do método gráfico são também apreciáveis.Assim, o desdobramento da variação total em variação de preço e variação de quantidade é ainda mais ressaltada pelo método gráfico, no qual se vê a variação de quantidade como o resultado de um deslocamento horizontal do ponto cuja abcissa é a quantidade e cuja ordenada é o custo total. Também a variação de preço lá aparece como o resultado da variação do coeficiente angular da reta do custo. Implicando em um deslocamento do ponto representativo da produção. Graficamente também se vê a análise das variações de preço e quantidade nas suas componentes pura e mista.Finalmente os modelos tabulares para os sistemas de produção discreto e contínuo apresentam da maneira mais simples possível todas as variações e seus respectivos custos analisadores. A forma tabular é a mais apreciada pelo administrador prático, pouco efeito à algebra e a geometria. Já o mesmo não se pode dizer do desdobramento, feito por muitos autores, da variação de preço em variação de capacidade e variação de orçamento. Da variação de capacidade já se evidenciou a inadequação do nome, dado que ela não é função da variação de preço. Isto não é mera questão teminológica. A terminologia apenas traz à luz a essência da dificuldade. E nossa proposição que este desdobramento seja descartado por ser totalmente sem significação, mesmo para o elemento indireto, para o qual foi proposto. Esta consideração é importante para a consideração da variação das unidades. Assim, introduzido o orçamento na análise das variaçãoes, a variação de orçamento que verdadeiramente merece este nome é a variação total orçamentária, ou seja, a diferença entre o custo efetivo e o custo orçado, a qual inclui como suas componentes a variação de unidades, a variação da quantidade e a variação de preço. O que é importante na análise da variação de preço é a consideração de variação mista de preço e de quantidade. Foi dado bastante destaque a este desdobramento com a apresentação de mais de um método para o tratamento analítico do desdobramento. Também foi devidamente ressaltada a questão das responsabilidades administrativas derivadas da variação mista
Resumo:
A teoria de custo padrão ressente-se de um tratamento matemático, como o que aqui é proposto. Conforme foi salientado no início, este tratamento matemático, embora substancialmente simples, é todavia absolutamente rigoroso e também é completo quando visto do prisma que se adotou. Modelamos a distinção necessariamente explícita entre a produção contínua e a produção discreta, através do uso dos modelos algébricos a dois e três fatores, respectivamente. Unificamos de uma maneira sistemática a abordagem dos três elementos básicos do custo, simplificando de um lado e generalizando do outro. Esta unificação levou aos elementos diretos, como deve ser, todo o rigorismo analítico do elemento indireto. Ampliou-se a estreita visão das variaçoes de preço e quantidade com a consideração da variação de unidades, que acarretou automaticamente a substituição do conceito de variação total pelo de variação total orçamentária
Resumo:
Para a contabilidade brasileira o ano de 2010 foi um verdadeiro divisor de águas. O advento da implementação das normas internacionais de contabilidade, padrão IFRS, na contabilidade brasileira, evidencia que essa adoção elevou o grau de qualidade e comparabilidade das demonstrações financeiras das companhias nacionais. A mudança de uma contabilidade baseada em regras para uma contabilidade baseada em princípios aumentou o grau de julgamento exigido pelos responsáveis das demonstrações contábeis. Com essa nova realidade é natural que os profissionais responsáveis pela manutenção e publicação das demonstrações financeiras estejam ainda numa curva de aprendizado dessa nova cultura. Nesse cenário, o objetivo deste trabalho é investigar e analisar o processo de convergência às Normas Internacionais de Contabilidade, mais especificamente à adoção do custo atribuído (CPC 27) do Ativo Imobilizado.
Resumo:
Neste trabalho fazemos um resumo de alguns artigos que tratam de equilíbrio geral dinâmico com custos de default. Focamos no estudo dos modelos de Kehoe e Levine (1993) e de Alvarez e Jermann (2000). Também descrevemos algumas adaptações do modelo de Alvarez e Jermann, como os trabalhos de Hellwig e Lorenzoni (2009) e de Azariadis e Kaas (2008), e comparamos os resultados desses modelos com os de Huggett (1993), no qual os mercados são exogenamente incompletos. Finalmente, expomos uma falha no algoritmo computacional sugerido por Krueger e Perry (2010) para se computar os equilíbrios estacionários de economias como as de Alvarez e Jermann (2000).
Resumo:
Este trabalho propõe um modelo para definir o custo-alvo com base no sistema de custeamento por atividades, no âmbito da cadeia de agronegócios de leite. Constatado a falta de conhecimento prévio na literatura disponível, foi questionado a contribuição do modelo na gestão de custos interorganizacionais. A fronteira de estudo ateve-se ao setor lácteo. A pesquisa é classificada como um estudo de caso do tipo embedded. E ainda considerando o caráter central da investigação todas as ações apontam nas direções de uma pesquisa-ação. No entanto, considerando os settings de pesquisa e a própria característica dos atores o estudo recorre ao recurso metodológico da etnografia. Entende-se que o enfoque etnográfico empreendido na investigação se emparelha ao recurso da pesquisa-ação. Investido na categoria de participante completo, o pesquisador procedeu adoção da observação conforme suas variantes: descritivas, focais, seletivas e esgotadas. Paralelamente a seqüência observacional, a entrevista com especialistas e a entrevista etnográfica se mostraram promissoras. Apesar dos recursos tecnológicos de registro de informações adotou o diário de campo como principal meio A interpretação e a atribuição de significados foram exercidas durante um processo qualitativo, não requerendo o uso de métodos e técnicas estatísticas. Como o ambiente natural é a fonte direta na captação dos dados e o pesquisador é o instrumento-chave, o procedimento analítico dos dados foi indutivo. O estudo revela-se um avanço no conhecimento, preenchendo uma lacuna existente na literatura sobre agronegócios. A modelagem se delineia favorável em seus resultados, mas requerendo replicações de forma a catalisar a robustez.
Resumo:
A introdução da Análise Custo-Efetividade na área da Saúde decorre desta preocupação de aperfeiçoamento dos métodos gerenciais em geral, e de escolha de alternativas de ação que levem ao melhor resultado em relação ao custo. Derivada das técnicas econômicas de análise de investimentos em uso no setor empresarial, a ACE pode ser de grande utilidade na montagem de programas e planos de saúde, na escolha entre diversos programas alternativos, e na sua avaliação. Consiste basicamente em confrontar os custos (esperados ou realizados a) de um programa, com seus resultados ou impactos (esperados ou realizados). A aplicação da Análise Custo-Efetividade é ainda recente, e restringe-se aos Estados Unidos e a alguns países europeus. No Brasil, embora comece a ser divulgada, ainda não foi utilizada em programas reais. Seus princípios e sua metodologia são relativamente simples, mas sua utilização em casos concretos esbarra em algumas dificuldades. Assim, a aplicação da análise a um dos programas desenvolvidos na Secretaria da Saúde poderá, além de divulgar a ACE na instituição, estabelecer claramente seu potencial e suas limitações no contexto da saúde pública brasileira. Um dos programas mais problemáticos da Secretaria é o Sub-programa de Controle da Hanseníase. Em vigência há vários anos, seus resultados estão aquém do esperado, em que pesem as características de uma doença endêmica e complexa e as falhas do próprio sub-programa. O interesse em se avaliar um programa cujos resultados são reconhecidamente insatisfatórios, e nosso conhecimento e experiência pessoal na área da hanseníase, justificam a escolha deste Sub-programa para a aplicação da Análise Custo-Efetividade.
Resumo:
Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.
Resumo:
Produtividade é frequentemente calculada pela aproximação da função de produção Cobb-Douglas. Tal estimativa, no entanto, pode sofrer de simultaneidade e viés de seleção dos insumos. Olley e Pakes (1996) introduziu um método semi-paramétrico que nos permite estimar os parâmetros da função de produção de forma consistente e, assim, obter medidas de produtividade confiável, controlando tais problemas de viés. Este estudo aplica este método em uma empresa do setor sucroalcooleiro e utiliza o comando opreg do Stata com a finalidade de estimar a função produção, descrevendo a intuição econômica por trás dos resultados.
Resumo:
Uma ferramenta importante na avaliação de políticas econômicas é a estimação do efeito médio de um programa ou tratamento sobre uma variável de interesse. Em geral, a atribuição do tratamento aos potenciais participantes não é aleatória, o que pode causar viés de seleção quando desconsiderada. Uma maneira de resolver esse problema é supor que o econometrista observa um conjunto de características determinantes, a menos de um componente estritamente aleatório, da participação. Sob esta hipótese, existem na literatura estimadores semiparamétricos do efeito médio do tratamento que são consistentes e capazes de atingir, assintoticamente, o limite de e ciência semiparamétrico. Entretanto, nas amostras freqüentemente disponíveis, o desempenho desses métodos nem sempre é satisfatório. O objetivo deste trabalho é estudar como a combinação das duas estratégias pode produzir estimadores com melhores propriedades em amostras pequenas. Para isto, consideramos duas formas de integrar essas abordagens, tendo como referencial teórico a literatura de estimação duplamente robusta desenvolvida por James Robins e co-autores. Analisamos suas propriedades e discutimos por que podem superar o uso isolado de cada uma das técnicas que os compõem. Finalmente, comparamos, num exercício de Monte Carlo, o desempenho desses estimadores com os de imputação e reponderação. Os resultados mostram que a combinação de estratégias pode reduzir o viés e a variância, mas isso depende da forma como é implementada. Concluímos que a escolha dos parâmetros de suavização é decisiva para o desempenho da estimação em amostras de tamanho moderado.
Resumo:
O presente trabalho investigou o valor de uma floresta nativa no bioma Mata Atlântica. Para isso, utilizou-se da metodologia de custo de reposição. Além disso, buscou-se explicitar os principais fatores determinantes desse valor, bem como seus impactos. Foram formuladas quatro hipóteses de pesquisa, a saber, i) o nível de degradação da área não influencia o custo total de reposição da floresta nativa; ii) relevos mais acidentados das áreas a serem restauradas não influenciam o custo total de reposição da floresta nativa; iii) a distância da área a ser restaurada em relação ao centro urbano mais próximo não influencia o custo total de reposição da floresta nativa; e iv) a distância da área a ser restaurada em relação ao viveiro produtor de mudas não influencia o custo total de reposição da floresta nativa. Para chegar aos resultados foram realizados testes simples de diferença de médias para as variáveis qualitativas. Os resultados encontrados foram de que pode-se rejeitar a hipótese de que relevos mais acidentados das áreas a serem restauradas não influenciam o custo total de reposição da floresta nativa. No entanto, não se rejeitam as hipóteses de que a distância da área a ser restaurada em relação ao centro urbano mais próximo não influencia o custo total de reposição da floresta nativa e de que a distância da área a ser restaurada em relação ao viveiro produtor de mudas não influencia o custo total de reposição da floresta nativa. Após essa primeira aproximação, é realizada uma série de regressões, utilizando o modelo clássico de mínimos quadrados ordinários (MQO). Fez-se uma análise de sensibilidade dos resultados obtidos. O levantamento de dados foi obtido por meio da realização de uma pesquisa (questionário) a uma série de entidades do setor. Foram testadas as quatro hipóteses. De acordo com os testes realizados, pode-se dizer que a hipótese 2 sobre o impacto de um relevo mais acidentado das áreas a serem restauradas no custo total de reposição da floresta nativa se mostrou não significativa em todos os modelos. No entanto, a hipótese 1 do impacto do nível de degradação sobre o valor do projeto foi rejeitada em todos os modelos. A hipótese 3 do impacto da localização da área em relação ao centro urbano sobre o valor do projeto foi rejeitada em dois modelos e a hipótese 4 de que a distância da área a ser restaurada em relação ao viveiro produtor de mudas não influencia o custo total de reposição da floresta nativa foi rejeitada em um modelo. Chegou-se ao resultado de R$22 mil/hectare para o custo de reposição de uma floresta nativa do bioma Mata Atlântica. Esse tipo de estudo foi contextualizado no desenvolvimento feito pela economia ambiental ao longo do tempo, ressaltando suas principais características. Nas conclusões destaca-se os principais pontos do trabalho e são discutidas uma série de implicações teóricas e gerenciais do presente estudo, bem como apresentadas sugestões para novos estudos nessa área.
Resumo:
Este artigo estima a transmissão da variação cambial aos índices de preços brasileiros, utilizando a metodologia de vetores autorregressivos estruturais (SVAR) com vetores de correção de erros (VEC). O período estudado tem início na introdução do regime de metas para a inflação (junho de 1999) e se encerra em setembro de 2011. Os resultados reforçam a avaliação de que houve amadurecimento da política monetária nos últimos anos, concomitantemente a uma melhora do ambiente macroeconômico. Na comparação dos nossos resultados com estudos anteriores, encontramos significativa redução do pass-through da taxa de câmbio para os índices de inflação.
Resumo:
Neste trabalho busca-se investigar empiricamente, no caso brasileiro, o comportamento da medida de risco de Foster e Hart, sua capacidade de estimação de retornos e se ela pode ser usada como indicador do momento do mercado. Esta medida é de fácil assimilação e cálculo, respeita axiomas de coerência, sendo indiferente a aversão ao risco dos agentes e mensurada na mesma unidade dos retornos. Encontram-se evidências de que o risco reage a momentos de estresse do mercado e da existência de um relacionamento positivo com retornos futuros.