63 resultados para A salvagem perdiçao: erro e ruína na Ilíada
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
O ERRO, fenômeno sempre presente nas nossas vidas, e a LIDERANÇA, tópico mais estudado em Ciências Sociais, são o foco e os temas desta dissertação. Com uma abordagem moderadamente positivista, dois questionários (EOQ e MLQ) foram aplicados a 125 líderes em 27 organizações no Brasil. A partir dos dados coletados, buscou-se avaliar exploratoriamente as correlações entre os fatores de tratamento do erro e os fatores que medem os estilos de liderança, segundo um dos modelos da Escola Transformacional. Também foram realizadas múltiplas regressões para se verificar de que forma os fatores de liderança poderiam predizer os de tratamento do erro. A pesquisa exploratória produzida neste trabalho traz importantes relações entre os fatores que compõem os dois construtos: por exemplo, Consideração Individual é significativo ao estimular o Aprendendo com os Erros, este achado pode ser facilmente aplicado em diferentes organizações e de forma independente de grupos. O receio e o medo, causados pelo erro, crescem com uma Gestão por Exceção (passiva) e, diminuem, caso haja o compartilhamento dos objetivos e da visão de longo prazo pelo líder. A Antecipação ao Erro também apresenta diferenças entre fatores característicos da Liderança Transformacional e do estilo Laissez-Faire. Enquanto o desafio das idéias, valores e crenças pelo líder eleva a Antecipação ao Erro, uma Gestão por Exceção (passiva) reduz a mesma. Pensando sobre Erros também apresenta relações inversas para os estilos de Liderança Transacional e Laissez-Faire. O tempo como gestor e o tempo na posição também apareceram como significativos para Tensão Causada pelo Erro, Antecipação ao Erro e Pensando sobre os Erros, todos eles fatores do Questionário de Orientação para o Erro (EOQ). Os resultados encontrados são muito úteis, por terem aplicação para as organizações e para os indivíduos, e podem ser usados em processos de seleção, treinamento e na avaliação da adequação do estilo dos líderes para o ambiente da organização. O estudo conclui com argumentos que é fundamental que o ERRO faça parte da agenda das organizações, bem como que os líderes o assumam no seu dia a dia.
Resumo:
O VIX Volatility Index surgiu como uma alternativa no cálculo da volatilidade implícita, visando mitigar alguns problemas encontrados em modelos da família Black-Scholes. Este tipo de volatilidade é tida como a melhor previsora da volatilidade futura, dado que as expectativas dos operadores de opções se encontram embutidas em seus valores. O objetivo deste trabalho é testar se o VIX apresenta maior poder preditivo e informações relevantes não presentes em modelos de séries temporais para variáveis não-negativas, tratadas através do modelo de erro multiplicativo. Os resultados indicam que o VIX apresenta maior poder preditivo em períodos de estabilidade econômica, mas não contém informação relevante frente à real volatilidade. Em períodos de crise econômica o resultado se altera, com o VIX apresentando o mesmo poder explicativo, mas contém informações relevantes no curto prazo.
Resumo:
O objetivo deste estudo é fazer uma análise da relação entre o erro de previsão dos analistas de mercado quanto à rentabilidade das empresas listadas na BM&FBOVESPA S.A. (Bovespa) e os requerimentos de divulgação do International Financial Reporting Standards (IFRS). Isto foi feito através da regressão do erro de previsão dos analistas, utilizando a metodologia de dados em painel no ano de implantação do IFRS no Brasil, 2010, e, complementarmente em 2012, para referenciamento desses dados. Partindo desse pressuposto, foi determinado o erro de previsão das empresas listadas na Bovespa através de dados de rentabilidade (índice de lucro por ação/earnings per share) previstos e realizados, disponíveis nas bases de dados I/B/E/S Earnings Consensus Information, providos pela plataforma Thomson ONE Investment Banking e Economática Pro®, respectivamente. Os resultados obtidos indicam uma relação negativa entre o erro de previsão e o cumprimento dos requisitos de divulgação do IFRS, ou seja, quanto maior a qualidade nas informações divulgadas, menor o erro de previsão dos analistas. Portanto, esses resultados sustentam a perspectiva de que o grau de cumprimento das normas contábeis é tão ou mais importante do que as próprias normas. Adicionalmente, foi verificado que quando a empresa listada na BM&FBOVESPA é vinculada a Agência Reguladora, seu erro de previsão não é alterado. Por fim, esses resultados sugerem que é importante que haja o aprimoramento dos mecanismos de auditoria das firmas quanto ao cumprimento dos requerimentos normativos de divulgação, tais como: penalidades pela não observância da norma (enforcement), estruturas de governança corporativa e auditorias interna e externa.
Resumo:
Esta dissertação de mestrado em economia foi motivada por uma questão complexa bastante estudada na literatura de economia política nos dias de hoje: as formas como campanhas políticas afetam votação em uma eleição. estudo procura modelar mercado eleitoral brasileiro para deputados federais senadores. Através de um modelo linear, conclui-se que os gastos em campanha eleitoral são fatores decisivos para eleição de um candidato deputado federal. Após reconhecer que variável que mede os gastos em campanha possui erro de medida (devido ao famoso "caixa dois", por exemplo), além de ser endógena uma vez que candidatos com maiores possibilidades de conseguir votos conseguem mais fontes de financiamento -, modelo foi estimado por variáveis instrumentais. Para senadores, utilizando modelos lineares modelos com variável resposta binaria, verifica-se também importância, ainda que em menor escala, da campanha eleitoral, sendo que um fator mais importante para corrida ao senado parece ser uma percepção priori da qualidade do candidato.
Resumo:
O objetivo da dissertação foi obter um modelo de previsão para os preços dos imóveis, praticados no mercado imobiliário da cidade do Rio de Janeiro no ano 2000, utilizando a Metodologia do Preço Hedônico (HPM), que deve reponder a duas questões: a) Quais são as características relevantes; b) Qual é a forma de relacionamento entre os preços e as características. O modelo de previsão foi obtido, com base em procedimentos econométricos, e teve duas etapas distintas. Na primeira etapa, de formulação do modelo, foram realizadas regressões paras as formas funcionais mais utilizadas pelos estudos na área, a saber, a forma funcional linear, dupla logarítmica e semilogarítmica. Em seguida foi utilizado o procedimento de seleção de modelos “geral para específico”. A segunda etapa consistiu na previsão fora da amostra. Isto é, a partir das formas funcionais reduzidas e utilizando-se dos coeficientes das variáveis significativas, obteve-se os preços estimados e em seguida foram comparados com os preços efetivamente praticados pelo mercado. Calculou-se, então, os Erro Quadrático Médio (EQM) e o Erro Absoluto Médio (EAM) e com o auxílio dos testes de diagnósticos e igualdade de variância, escolheu-se a forma funcional que melhor se adequou aos dados Desta forma, para um nível de significância de 5%, a forma funcional que melhor se adequou aos critérios estabelecidos foi a dupla logarítmica e apresentou como resultado da estimação um R2=92,63% e dentre as características mais relevantes para estimação do preço do imóvel pode-se destacar, entre outras, o tamanho do imóvel como características físicas; a ocorrência de roubos como características de segurança, a quantidade disponível de bens e serviços destinados ao lazer como características de vizinhança e a disponibilidade ou não de serviços de hotelaria como características dummies.
Resumo:
A sustentabilidade da dívida pública brasileira no período entre dezembro de 1997 e junho de 2004 é testada nesse trabalho. Além disso, estima- se como o governo a justa em valor presente os impostos e gastos futuros diante de um choque nestas variáveis. Para testar a sustentabilidade, dois tipos de testes são aplicados: o primeiro segue a metodologia de coin- tegração presente nos modelos desenvolvidos por Hakkio e Rush (1991) e Bohn (1991); e o segundo baseia-se na reação do superávit primário a mudanças na razão dívida-PIB, como demonstrado por Bohn (1998). Para estes testes, utiliza-se séries como proporção do PIB, pois são as variáveis de relevância para o governo na condução da política fiscal. Os resultados dos três modelos indicam sustentabilidade da dívida pública brasileira. Sob a confirmação empírica de que a dívida é sustentável, o modelo desenvolvido por Bohn (1991) foi aplicado para avaliar como o governo reage a inovações nos gastos ou nos impostos de modo a manter a relação de equilíbrio de longo prazo do seu orçamento. Os resultados indicam que o governo reage com aumento de impostos quando a economia sofre choques nas variáveis fiscais. Isto resulta da exogeneidade fraca dos gastos no modelo de correção-de-erro estimado.
Resumo:
Este estudo tem como objetivo analisar o desempenho de vários modelos econométricos ao prever Inflação . Iniciamos o trabalho utilizando como base de comparação para todos os modelos a tradicional curva de Phillips que usa a taxa de desemprego como variável explicativa para diferenças de preço. Dentre os modelos analisados temos univariados e bivariados, sendo estes últimos uma curva de Phillips alternativa já que apenas sustitui a variável desemprego por outra variável macroeconômica. Além destes modelos também comparamos o desempenho de previsão de modelos que usam como covariadas uma combinação das previsões dos modelos anteriores (univariados e bivariados). O resultado deste estudo aponta a combinação de modelos por "ridge regression" como uma técnica - dentre as analisadas para combinação de previsões - de menor erro de previsão sempre; sendo alcançado pela combinação da média em apenas um dos casos analisados. No entanto, a combinação de previsões não apresentou melhor resultado que algumas das covariadas testadas em modelos bivariados
Resumo:
O objetivo do trabalho investigar qualidade das previsões da taxa de inflação brasileira utilizando-se uma alternativa tradicional unemployment rate Phillips curve. Utilizaremos diversas variáveis que espelham nível de atividade econômica no Brasil em substituição ao hiato entre taxa de desemprego taxa natural de desemprego (NAIRU). Essas variáveis serão trabalhadas e baseado em critérios mencionados ao longo do estudo, serão classificadas por nível de erro de previsibilidade. objetivo ao final do trabalho sugerir indicadores variáveis de nível de atividade disponíveis publicamente que melhor possam interagir com dinâmica da inflação brasileira.
Resumo:
O propósito deste estudo é analisar a capacidade dos modelos econométricos ARMA, ADL, VAR e VECM de prever inflação, a fim de verificar qual modelagem é capaz de realizar as melhores previsões num período de até 12 meses, além de estudar os efeitos da combinação de previsões. Dentre as categorias de modelos analisados, o ARMA (univariado) e o ADL (bivariado e multivariado), foram testados com várias combinações de defasagens. Foram realizadas previsões fora-da-amostra utilizando 3 períodos distintos da economia brasileira e os valores foram comparados ao IPCA realizado, a fim de verificar os desvios medidos através do EQM (erro quadrático médio). Combinações das previsões usando média aritmética, um método de média ponderada proposto por Bates e Granger (1969) e média ponderada através de regressão linear múltipla foram realizadas. As previsões também foram combinadas com a previsão do boletim FOCUS do Banco Central. O método de Bates e Granger minimiza a variância do erro da combinação e encontra uma previsão com variância do erro menor ou igual à menor variância dos erros das previsões individuais, se as previsões individuais forem não viesadas. A conclusão é que, com as técnicas de séries temporais utilizadas, alguns modelos individuais fornecem previsões com EQM relativamente baixos. Destacando-se, dentre eles, os modelos VAR e VECM. Porém, com a combinação de previsões os EQM obtidos são menores do que os das previsões individuais usadas para combinação. Na maioria dos casos, a combinação de previsões com o boletim FOCUS também melhorou significativamente os resultados e forneceu previsões com EQM menores do que os das previsões individuais, destacando-se, dentre os métodos de combinações utilizados, a combinação via regressão linear múltipla.
Resumo:
Uma democracia consolidada pressupõe um estado capaz, e para ambos é necessária uma nação forte e uma sociedade civil ativa. Diversas democracias na América Latina não alcançaram tais requisitos porque não completaram suas respectivas revoluções capitalistas, e o excedente econômico continua dependendo do controle direto do estado. Este fato demonstra que a qualidade das democracias varia de país para país, e prevê que as democracias possíveis nos países mais pobres serão necessariamente democracias limitadas. Desde que a democracia tornou-se uma justificativa para pressões e intervenções externas, é um erro incluir no conceito de democracia mais do que as necessidades mínimas, práticas. Por outro lado, para melhorar a democracia é necessário aumentar a capacidade do estado não apenas para assegurar o respeito às leis, mas também para promover o desenvolvimento econômico e social.
Resumo:
A motivação para este trabalho vem dos principais resultados de Carvalho e Schwartzman (2008), onde a heterogeneidade surge a partir de diferentes regras de ajuste de preço entre os setores. Os momentos setoriais da duração da rigidez nominal são su cientes para explicar certos efeitos monetários. Uma vez que concordamos que a heterogeneidade é relevante para o estudo da rigidez de preços, como poderíamos escrever um modelo com o menor número possível de setores, embora com um mínimo de heterogeneidade su ciente para produzir qualquer impacto monetário desejado, ou ainda, qualquer três momentos da duração? Para responder a esta questão, este artigo se restringe a estudar modelos com hazard-constante e considera que o efeito acumulado e a dinâmica de curto-prazo da política monetária são boas formas de se resumir grandes economias heterogêneas. Mostramos que dois setores são su cientes para resumir os efeitos acumulados de choques monetários, e economias com 3 setores são boas aproximações para a dinâmica destes efeitos. Exercícios numéricos para a dinâmica de curto prazo de uma economia com rigidez de informação mostram que aproximar 500 setores usando apenas 3 produz erros inferiores a 3%. Ou seja, se um choque monetário reduz o produto em 5%, a economia aproximada produzirá um impacto entre 4,85% e 5,15%. O mesmo vale para a dinâmica produzida por choques de nível de moeda em uma economia com rigidez de preços. Para choques na taxa de crescimento da moeda, a erro máximo por conta da aproximação é de 2,4%.