63 resultados para A salvagem perdiçao: erro e ruína na Ilíada
Resumo:
Nas últimas décadas, o agronegócio brasileiro tem ganhado cada vez mais relevância para a economia nacional, apresentando significativos ganhos de produtividade. Estes ganhos ocorreram devido a maior absorção de tecnologia pelos produtores agrícolas, incluindo o uso de insumos, dentre os quais se destacam os fertilizantes. As vendas de fertilizantes no Brasil cresceram 5,9% entre 1991 e 2012, atingindo 29,5 milhões de toneladas em 2012. Apesar disso, no Brasil, poucos trabalhos tratam dos fatores que afetam as suas vendas. Justifica-se, assim o presente estudo que tem como objetivo analisar os principais fatores que afetam as vendas brasileiras de fertilizantes para a soja. A metodologia utilizada é a de séries temporais e o período da análise é o de 1988 a 2012. Para atingir o objetivo uma função de vendas foi estimada considerando as propriedades de integração e cointegração das séries temporais. O modelo proposto para explicar as vendas de fertilizantes para a soja incluíam as seguintes variáveis exógenas: área plantada de soja; preço dos fertilizantes para a soja; produtividade da soja e preço da soja. A variável preço da soja apresentou uma alta multicolinearidade com a área plantada de soja, e por isto não foi incluída no modelo final. Os resultados encontrados no estudo mostram que a área plantada é o fator que exerce maior influência sobre as vendas de fertilizantes para a soja, sendo que um choque positivo de 1% sobre o crescimento da área plantada tem efeito positivo de 1,8% sobre as vendas de fertilizantes para a soja. O preço dos fertilizantes para a soja resultou em um coeficiente negativo conforme era esperado. A produtividade da soja foi utilizada como uma proxy para a capitalização do produtor agrícola, e, assim como a área plantada, ela apresentou sinal positivo, embora de menor magnitude e não estatisticamente significativo.
Resumo:
O objetivo desse trabalho é estimar a medida dinâmica VNET de profundidade de mercado para ações brasileiras a partir de dados de transação. VNET mede a diferença no número de ações compradas e vendidas no intervalo de tempo necessário para que o preço se movesse além de um determinado incremento. É uma medida de liquidez realizada para uma deterioração específica de preço que pode ser calculada seguidamente ao longo do dia, capturando assim a dinâmica de curto prazo da liquidez. Em particular, assume-se que essa duração de preços segue um modelo autorregressivo de duração condicional (ACD). A natureza pré-determinada do processo ACD é conveniente porque nos permite prever mudanças futuras na liquidez de uma ação. Assim, ao identificar os melhores momentos para realizar uma operação de compra ou venda, o VNET é um excelente ponto de partida para qualquer estratégia de execução ótima. Os resultados empíricos deste trabalho indicam que a profundidade de mercado medida pelo VNET varia com ágio de compra e venda, com o volume negociado, com o número de negócios, com a duração de preços condicional, e com o seu erro de previsão. Para estimar a curva de reação do mercado, variamos os intervalos de preço usados na definição das durações de preços.
Resumo:
Este livro apresenta textos que estudam os movimentos Law & Society e Law & Economics. Na primeira parte, temos “Relações não contratuais nos negócios: um estudo preliminar” (Stewart Macaulay), “Macaulay, Macneil e a descoberta da solidariedade e do poder no direito contratual” (Robert W. Gordon), “Descobrindo as dimensões implícitas dos contratos” (David Campbell e Hugh Collins) e “Os contratos como artefatos sociais” (Mark C. Suchman). Na segunda parte, temos “A eficiência da execução específica: rumo a uma teoria unificada dos remédios contratuais” (Thomas S. Ulen); “Medidas de danos para quebra de contrato” (Steven Shavell); “Limites da cognição e limites do contrato” (Melvin A. Eisenberg) e “Erro, dever de revelar a informação e direito dos contratos” (Anthony T. Kronman).
Resumo:
Mandelbrot (1971) demonstrou a importância de considerar dependências de longo prazo na precificação de ativos - o método tradicional para mensurá-las, encontrado em Hurst (1951), faz uso da estatística R/S. Paralelamente a isso, Box e Jenkins (1976; edição original de 1970) apresentaram sua famosa metodologia para determinação da ordem dos parâmetros de modelos desenvolvidos no contexto de processos com memória de curto prazo, conhecidos por ARIMA (acrônimo do inglês Autoregressive Integrated Moving Average). Estimulados pela percepção de que um modelo que pretenda representar fielmente o processo gerador de dados deva explicar tanto a dinâmica de curto prazo quanto a de longo prazo, Granger e Joyeux (1980) e Hosking (1981) introduziram os modelos ARFIMA (de onde o F adicionado vem de Fractionally), uma generalização da classe ARIMA, nos quais a dependência de longo prazo estimada é relacionada ao valor do parâmetro de integração. Pode-se dizer que a partir de então processos com alto grau de persistência passaram a atrair cada vez mais o interesse de pesquisadores, o que resultou no desenvolvimento de outros métodos para estimá-la, porém sem que algum tenha se sobressaído claramente – e é neste ponto que o presente trabalho se insere. Por meio de simulações, buscou-se: (1) classificar diversos estimadores quanto a sua precisão, o que nos obrigou a; (2) determinar parametrizações razoáveis desses, entendidas aqui como aquelas que minimizam o viés, o erro quadrático médio e o desvio-padrão. Após rever a literatura sobre o tema, abordar estes pontos se mostrou necessário para o objetivo principal: elaborar estratégias de negociação baseadas em projeções feitas a partir da caracterização de dependências em dados intradiários, minuto a minuto, de ações e índices de ações. Foram analisadas as séries de retornos da ação Petrobras PN e do Índice Bovespa, com dados de 01/04/2013 a 31/03/2014. Os softwares usados foram o S-Plus e o R.
Resumo:
In this paper I use Taylor's (2001) model and Vector Auto Regressions to shed some light on the evolution of some key macroeconomic variables after the Central Bank of Brazil, through the COPOM, increases the target interest rate by 1%. From a quantitative perspective, the best estimate from the empírical analysis, obtained with a 1994 : 2 - 2004 : 2 subsample of the data, is that GDP goes through an accumulated decline, over the next four years, around 0.08%. Innovations to interest rates explain around 9.2% of the forecast erro r of GDP.
Resumo:
Este trabalho investiga e analisa as diferenças das taxas anuais de inflação realizadas com relação às previsões dos agentes econômicos do mercado para um ano à frente. Os índices analisados foram o IPCA, IPA-M, IGP-M e o IGP-DI. Referente à previsão dos agentes para cada índice, foi feito uma análise estatística e uma análise de séries temporais através do modelo ARIMA. Este último explicou o erro de previsão dos agentes econômicos através de valores passados, ou defasados, do próprio erro de previsão, além dos termos estocásticos.
Resumo:
Este trabalho acadêmico explora, em linhas gerais, a questão da adaptação do contrato de investimento internacional, e o tema ‘cláusula de hardship’ em específico. Objetiva-se efetuar uma análise detalhada da cláusula de hardship, como meio de adaptação e flexibilização de contratos internacionais de investimento sob a ótica da prática jurídica e mercantil contemporânea. A discussão se centra no contraste entre a possibilidade de adaptação do contrato por circunstâncias imprevisíveis e o imperativo de previsibilidade no investimento. Nesse sentido, o estudo busca oferecer soluções práticas para o dilema existente entre a necessidade de segurança na relação econômica (cumprimento do contato) e a prevenção da possibilidade de ruína financeira para quaisquer das partes no caso de uma mudança brusca no contexto dos negócios. O trabalho está centrado em uma investigação teórica acerca dos temas de readaptação contratual; diferenças entre sistemas jurídicos de estados-nações, e suas consequências no comércio internacional; e a cláusula de hardship em si. Como forma de contribuir para uma compreensão prática na questão da adaptação do contrato de investimento internacional devido a fatores imprevistos, este trabalho analisa casos reais e tendências atuais observadas na arbitragem internacional.
Resumo:
Reportagem exibida pelo Jornal Cultura.
Resumo:
Na literatura empírica, várias estimativas de taxas de retorno para educação têm sido reportadas, baseadas no modelo de Mincer (1958, 1974). No entanto, para que o coeficiente dos anos de estudo, em uma regressão do logaritmo da renda contra educação e experiência, seja entendido como taxa de retorno diversas hipóteses devem ser válidas. Baseado em Heckman, Lochner e Todd (2006) e Heckman, Ichimura, Smith e Todd (1998), testamos algumas de tais hipóteses como: linearidade nos anos estudo e separabilidade entre educação e experiência (paralelismo). Para isso, utilizamos dados da PNAD (1992-2004) e do Censo (1970-2000) e lançamos mão de regressões paramétricas e não-paramétricas (regressão linear local); e acabamos rejeitando tanto linearidade como paralelismo. Adicionalmente, relaxamos tais hipóteses e estimamos as taxas internas de retorno (T1Rs), baseado em Becker (1993), para se medir a ordem do viés em relação ao coeficiente escolar do modelo original de Mincer. Esta medida permite mensurar o tamanho do erro em diversos estudos quando os mesmos utilizam o modelo de Mincer. Obtemos vieses que chegaram a ordem de mais de 200%, como por exemplo a TIR em 2000 passando de 17.2% para todos níveis educacionais (retorno "minceriano") para 5.61% para mestrado/doutorado em relação ao nível superior, quando estimada não parametricamente, relaxando linearidade e paralelismo. Assim, diversos estudos no Brasil não consideram tais hipóteses e, conseqüentemente suas estimativas estão erradas e mais ainda, a magnitude deste erro é grande, podendo levar à conclusões distorcidas ou mal interpretadas. Assim, provemos também novas estimativas das TIRs, as quais devem ser tomadas como referência para a análise do comportamento dos agentes nos movimentos de demanda por educação e oferta de mão-de-obra. Por fim, corroboramos a evidência da literatura que os retornos educacionais estão decaindo ao longo das décadas, com exceção do nível superior que aponta para um crescimento nesta última década, mas em magnitude menor das obtidas em diversos estudos recentes, que se baseiam no modelo de Mincer.
Resumo:
Este trabalho busca descobrir qual modelo (CAPM e Grinold e Kroner) é o melhor para estimar o futuro retorno do índice Bovespa, ex-ante. Não foi utilizado o índice completo, mas uma versão simplificada do índice utilizando as 25 maiores posições do índice ao longo de todos os trimestres desde 2000 até 2013. Este grupo já representava mais de 60% do índice. No final foi observado que o modelo CAPM conseguiu apresentar o melhor poder de explicação tanto na relação retorno observado e esperado, quanto nas medidas de erro absoluto. O único modelo que o Grinold e Kroner apresentaram um melhor resultado foi no erro percentual absoluto médio.
Resumo:
A preocupação com a segurança do paciente, fator importante na dimensão da qualidade do cuidado de saúde, é, atualmente, um tema de grande relevância entre pesquisadores do todo o mundo. Os “erros” ocorrem em qualquer local onde se prestam cuidados de saúde e na maioria das situações são passíveis de medidas preventivas. O objetivo deste estudo de caso para ensino é desvelar, através de uma revisão bibliográfica, o debate em torno do tema da segurança do paciente a partir do século XXI, enfocando sua relevância enquanto problema global de saúde pública. Além disso, este estudo discorre sobre os desafios relacionados às lacunas e perspectivas neste tema e sua abordagem na realidade brasileira. Os resultados da análise sugerem que a investigação sobre a segurança do paciente apresenta falhas nas suas abordagens a serem melhor definidas e estabelecidas. Foram identificadas ainda, as barreiras, como grande demanda dos prontos-socorros das grandes cidades, o medo do profissional que cometeu o erro, adesão de todos os profissionais e dos gestores, e desafios para serem enfrentados, como o desenvolvimento de estratégias e ações políticas de saúde específicas, tanto para a pesquisa na área de saúde quanto para a literatura de saúde pública em gestão pública.
Resumo:
A Lei 11.284/2006 é um importante marco legal da atividade de gestão florestal do Brasil. O manejo florestal sustentável de florestas públicas, até então exercido exclusivamente pelo Estado, passou a ser passível de concessão com o advento dessa Lei. A chamada “concessão florestal” se insere, portanto, na nova orientação político-econômica brasileira de “desestatização”, privilegiando o princípio da eficiência. Como resultado, a atividade de exploração sustentável de produtos florestais passa a ser transferida pelo Estado, por intermédio do Serviço Florestal Brasileiro, à iniciativa privada. Para o sucesso de uma concessão florestal, os licitantes interessados precisam de uma estimativa da capacidade produtiva da “Unidade de Manejo Florestal”. O estudo disponibilizado pelo Serviço Florestal Brasileiro para fazer essa estimativa é o inventário florestal que, resumidamente, tem a importante missão de antecipar às características vegetais de área que será objeto da concessão. E os resultados desse estudo são a principal fonte de informação para que o licitante calcule o valor que irá ofertar ao Poder Concedente. Ocorre que, por questões técnico-metodológicas que fogem ao conhecimento jurídico, os estudos de inventário florestal estão sujeitos a erros de grande escala, retratando, de maneira ilusória, a realidade da vegetação que compõe área que será concedida. Isto é um risco intrínseco à atividade de exploração sustentável de produtos florestais. Diante desse contexto, caberia ao Serviço Florestal Brasileiro administrar o risco do inventário florestal da maneira mais eficiente possível. Entretanto, não é isso que vem ocorrendo nos contratos de concessão florestal. Sobre a distribuição de riscos em contratos de concessão, a doutrina especializada no tema oferece critérios que, quando seguidos, possibilitam uma alocação dos riscos peculiares a cada atividade à parte que melhor tem condições de geri-los. Esses critérios aumentam a eficiência da concessão. Contudo, os contratos de concessão florestal até hoje celebrados não vêm considerando esses importantes critérios para uma eficiente distribuição de riscos. Como consequência, o risco do inventário florestal é, igualmente a outros inúmeros riscos, negligenciado por esses contratos, aumentando-se a ineficiência dos contratos de concessão. Diante desse panorama, os licitantes interessados na concessão adotam duas posturas distintas, ambas igualmente rejeitáveis: a postura do Licitante Conservador e a postura do Licitante Irresponsável. Esses perfis de licitantes geram, respectivamente, ineficiência à concessão e, caso o erro do inventário florestal efetivamente ocorra, a possibilidade de inviabilidade da concessão. Como resposta a isso – que é exatamente o “problema” que pretendo resolver –, proponho uma solução para melhor administrar o risco do inventário florestal. Essa solução, inspirada em uma ideia utilizada na minuta do contrato de concessão da Linha 4 do Metrô de São Paulo, e baseando-se nos critérios oferecidos pela doutrina para uma distribuição eficiente dos riscos, propõe algo novo: a fim de tornar a os contratos de concessão florestal mais eficientes, sugere-se que o risco do inventário florestal deve ser alocado na Administração Pública, e, caso o evento indesejável efetivamente ocorra (erro do inventário florestal), deve-se, por meio do reequilíbrio econômico-financeiro do contrato, ajustar o valor a ser pago pelo concessionário ao Poder Concedente. Como consequência dessa previsão contratual, as propostas dos licitantes serão mais eficientes, permitindo-se alcançar o objetivo primordial da Lei 11.284/2006: aumento da eficiência da exploração florestal sustentável e preservação do meio ambiente e dos recursos florestais.
Resumo:
O título deste post me veio à mente depois que li, recentemente, o resultado de uma pesquisa feita pela FGV-DAPP que mostrou, por parte da população, uma avaliação extremamente negativa dos principais serviços públicos do país. Por conta disso, não espanta que, segundo o levantamento, três em cada cinco brasileiros estejam insatisfeitos com o funcionamento da democracia. Banalizar esta situação será um erro. O que refletir sobre ela?
Resumo:
O objetivo desse trabalho é encontrar uma medida dinâmica de liquidez de ações brasileiras, chamada VNET. Foram utilizados dados de alta frequência para criar um modelo capaz de medir o excesso de compras e vendas associadas a um movimento de preços. Ao variar no tempo, o VNET pode ser entendido como a variação da proporção de agentes informados em um modelo de informação assimétrica. Uma vez estimado, ele pode ser utilizado para prever mudanças na liquidez de uma ação. O VNET tem implicações práticas importantes, podendo ser utilizado por operadores como uma medida estocástica para identificar quais seriam os melhores momentos para operar. Gerentes de risco também podem estimar a deterioração de preço esperada ao se liquidar uma posição, sendo possível analisar suas diversas opções, servindo de base para otimização da execução. Na construção do trabalho encontramos as durações de preço de cada ação e as diversas medidas associadas a elas. Com base nos dados observa-se que a profundidade varia com ágio de compra e venda, com o volume negociado, com o numero de negócios, com a duração de preços condicional e com o seu erro de previsão. Os resíduos da regressão de VNET se mostraram bem comportados o que corrobora a hipótese de que o modelo foi bem especificado. Para estimar a curva de reação do mercado, variamos os intervalos de preço usados na definição das durações.
Resumo:
Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.