979 resultados para Seleção de Modelos
Resumo:
Este trabalho tem como objetivo explicar o funcionamento do Sistema Brasileiro de Defesa da Concorrência e apresentar novas ferramentas de auxílio à política antitruste. Para isso, discutiremos o Sistema Norte-Americano de Defesa da Concorrência e, principalmente, o guideline americano, que é a base das técnicas de análise de fusões e aquisições em grande parte dos países, inclusive o Brasil. Uma vez apresentado o ambiente institucional, explicare- mos alguns modelos de simulação de fusões, uma técnica relativamente recente utilizada por alguns órgãos antitruste do mundo que permite fazer previsões do novo nível de preços da indústria após a fusão. Para ilustrar as virtudes do método, aplicaremos o modelo a alguns casos de aquisições conhecidos no Brasil e analisaremos seus resultados.
Resumo:
Retornando à utilização de técnicas de séries de tempo para a estimação de parâmetros das preferências dos indivíduos, este trabalho investiga o tradicional problema do consumo intertemporal ótimo do tipo CCAPM por um novo ângulo. Se apresentam dois estimadores para o fator estocástico de descontos independentes da especificação de funções utilidade, que são utilizados para a agregação das informações disponíveis sobre os retornos dos ativos da economia. A metodologia proposta é aplicada para dados do Brasil, para o período do plano Real, e dos Estados Unidos, para um período iniciado em 1979. Na parte empírica do trabalho obtem-se dois resultados. Primeiro, obtem-se uma estimativa para o grau americano de aversão ao risco de 2,1 - mais de 10 vezes menor que o comumente encontrado na literatura. Segundo, é estimado um grau de aversão ao risco de 2,3 no caso brasileiro, o que está em linha com trabalhos anteriormente publicados.
Resumo:
O presente trabalho estima por máxima verossimilhança um modelo de ciclos reais para as economias brasileira americana. Os parâmetros são estimados partir de um VAR na forma estrutural obtido de um modelo macroeconômico de horizonte infinito com agente representativo choque tecnológico. Como algumas variáveis necessárias para estimação do modelo não são observadas emprega-se, na rotina computacional escrita em Matlab, método de Filtro de Kalman. Desta forma, enfoque adotado apresenta-se como opção metodologia de calibração, bem como metodologia de modelos VAR com imputação ad hoc de condições de identificação. Para estimação do modelo construiu-se uma base de dados de tributação para o Brasil, desagregando em impostos sobre absorção, sobre rendimento do fator capital sobre fator trabalho para período 1949-1995. Também empreende-se ao longo da dissertação, um detalhamento minucioso da técnica econométrica empregada dos procedimentos computacionais adotados.
Resumo:
A gestão por alocação de ativos, para ser bem sucedida, deve possuir classes de ativos (vértices) adequados Caso Contrários, o resulatdo do processo pode gerar alocações sem sentidos ou pouco efiecientes e, consequentemente, o desempenho da carteira refletirá a alocação ineficiente. Os vértices para alocação selecionados devem abranger e a representar seu mercado de atuação. Pórem, um grande numero de vertices se torna ineficiente devido à perda de sensibilidade gerencial. Logo, os vértices adequados devem abrager o mercado e ser em número reduzido para que possam ser avaliados corretamentes pelo gestor. O objetivos deste trabalho foi discutir e definir vértices de alocação para a modelagem de decisões de investimentos off shore de investidores brasileiros sob dois focos: - Um investidor brasileiro que analisa risco e retorno em reais, que possui parte dos seus investimentos no Brasil, e toma decisões de quanto quer investir no brasil e no exterior; - Um investidor globaL que analisa risco e retorno em doláres americanos (USD) e que pode tomar decisões de quanto quer investir no Brasil e no exterior. O princípio geral de seleção de vértices utilizou o critério de minimização de risco. Este critério foi adotado devido à instabilidade dos retornos esperados e à estabilidade do riscoestimado. Não se pode ignorar a instabilidade da matriz de variância e convariância, porem esta é mais estável que os retornos esperados. A seleção foi conduzidas em três níveis, sempre sob a ótica de risco. Definiu-se risco como o desvio padrão da série de rentabilidade dos ativos. Os vérticies aqui propostos são aqueles que devem ser regularmente incluídos em decisões de alocação de ativos. Entretanto, em decisões efetivas de alocação de ativos será preciso acrescentar vértices que apresentem expectativas anormais de retorno esperado.
Resumo:
A motivação deste trabalho é relacionar a teoria da estatística com uma clássica aplicação prática na indústria, mais especificamente no mercado financeiro brasileiro. Com o avanço de hardware, sistemas de suporte à decisão se tornaram viáveis e desempenham hoje papel fundamental em muitas áreas de interesse como logística, gestão de carteiras de ativos, risco de mercado e risco de crédito. O presente trabalho tem como objetivos principais propor uma metodologia de construção de modelos de escoragem de crédito e mostrar uma aplicação prática em operações de empréstimo pessoal com pagamento em cheques. A parte empírica utiliza dados reais de instituição financeira e duas metodologias estatísticas, análise de regressão linear múltipla e análise de regressão probit. São comparados os resultados obtidos a partir da aplicação de modelos de escoragem de crédito desenvolvidos com cada metodologia com os resultados obtidos sem a utilização de modelos. Assim, demonstra-se o incremento de resultado da utilização de modelos de escoragem e conclui-se se há ou não diferenças significativas entre a utilização de cada metodologia. A metodologia de construção de modelos de escoragem é composta basicamente por duas etapas, definição das relações e da equação para cálculo do escore e a definição do ponto de corte. A primeira consiste em uma busca por relações entre as variáveis cadastrais e de comportamento do cliente, variáveis da operação e o risco de crédito caracterizado pela inadimplência. A segunda indica o ponto em que o risco deixa de ser interessante e o resultado esperado da operação passa a ser negativo. Ambas as etapas são descritas com detalhes e exemplificadas no caso de empréstimos pessoais no Brasil. A comparação entre as duas metodologias, regressão linear e regressão probit, realizada no caso de empréstimos pessoais, considerou dois aspectos principais dos modelos desenvolvidos, a performance estatística medida pelo indicador K-S e o resultado incremental gerado pela aplicação do modelo. Foram obtidos resultados similares com ambas as metodologias, o que leva à conclusão de que a discussão de qual das duas metodologias utilizar é secundária e que se deve tratar a gestão do modelo com maior profundidade.
Resumo:
Com base na literatura internacional, testa-se o desempenho de alguns Drivers de Valor comumente utilizados para avaliação de empresas pelos práticos em finanças através de modelos de regressão simples do tipo cross-section que estimam os Múltiplos de Mercado (?'s dos modelos). Utilizando dados de empresas listadas na Bolsa de Valores de São Paulo-Bovespa, diagnostica-se o comportamento dos diversos múltiplos no decorrer do período entre 1994-2004, atentando-se também para as particularidades das atividades desempenhadas pelas empresas da amostra (e seus possíveis impactos no desempenho de cada Driver de Valor) através de uma subseqüente análise com a separação das empresas da amostra em setores. Extrapolando os padrões de avaliação por múltiplos simples usados pelos analistas de empresas das principais instituições financeiras presentes no Brasil, verifica-se que a introdução de intercepto na formulação tradicional não oferece resultados satisfatórios na redução dos erros de apreçamento. Os resultados encontrados podem não ser genericamente representativos, dada a limitada disponibilidade de informações e as restrições impostas na obtenção da base de dados.
Resumo:
Nos últimos tempos, mensurar o Risco Operacional (RO) tornou-se o grande desafio para instituições financeiras no mundo todo, principalmente com a implementação das regras de alocação de capital regulatório do Novo Acordo de Capital da Basiléia (NACB). No Brasil, ao final de 2004, o Banco Central (BACEN) estabeleceu um cronograma de metas e disponibilizou uma equipe responsável pela adaptação e implementação dessas regras no sistema financeiro nacional. A Federação de Bancos Brasileiros (FEBRABAN) também divulgou recente pesquisa de gestão de RO envolvendo vários bancos. Todo esse processo trouxe uma vasta e crescente pesquisa e atividades voltadas para a modelagem de RO no Brasil. Em nosso trabalho, medimos o impacto geral nos banco brasileiros, motivado pelas novas regras de alocação de capital de RO envolvendo os modelos mais básicos do NACB. Também introduzimos um modelo avançado de mensuração de risco, chamado Loss Data Distribution (LDA), que alguns especialistas, provenientes do Risco de Mercado, convencionaram chamar de Value-at-Risk Operacional (VaR Operacional.). Ao final desse trabalho apresentamos um caso prático baseado na implementação do LDA ou VaR
Resumo:
Analisamos a previsibilidade dos retornos mensais de ativos no mercado brasileiro em um período de 10 anos desde o início do plano Real. Para analisarmos a variação cross-section dos retornos e explicarmos estes retornos em função de prêmios de risco variantes no tempo, condicionados a variáveis de estado macroeconômicas, utilizamos um novo modelo de apreçamento de ativos, combinando dois diferentes tipos de modelos econômicos, um modelo de finanças - condicional e multifatorial, e um modelo estritamente macroeconômico do tipo Vector Auto Regressive. Verificamos que o modelo com betas condicionais não explica adequadamente os retornos dos ativos, porém o modelo com os prêmios de risco (e não os betas) condicionais, produz resultados com interpretação econômica e estatisticamente satis fatórios
Resumo:
O projeto de lei do Senado de Nº 317 de 2003, que estabelece a autonomia operacional do Banco Central do Brasil, é um grande passo em direção a uma modernização institucional do país. Sendo essa autonomia aprovada, uma questão crucial que se segue é como será o desenho institucional do Banco Central do Brasil. Quais áreas estarão ligadas ao BACEN e quais áreas estarão fora? Quem determinará a meta? Quem serão os membros do COPOM? Essas são apenas algumas questões que surgem quando se fala em autonomia do canco central. Existem diversos exemplos de bancos centrais autônomos no mundo e esse estudo irá analisar como esses cancos centrais operam, para que futuramente se possa tentar desenhar um arranjo institucional que se adapte as necessidades brasileiras.
Resumo:
Atualmente, o leilão de espectro tem sido evento de considerável relevância para o mercado de telecomunicações. As cifras alcançadas nos leilões, a oportunidade que eles representam para as empresas interessadas em explorar o mercado de telecomunicações, e o interesse do governo em alocar de forma eficiente este recurso, trouxeram notoriedade e magnitude para este mecanismo de seleção. Com o advento de novas tecnologias de comunicação móvel, detentoras de características inovadoras que permitem preencher cada vez mais a cesta de necessidades do consumidor, e a partir da alocação destas tecnologias a distintas faixas de espectro, tornou-se necessário, a determinação do mecanismo de escolha mais adequado daquele que será o gestor do recurso que permitirá a oferta desses serviços ao mercado: o espectro de freqüência. Com o intuito de se avaliar esse cenário, e os distintos papéis de seus participantes, busca-se nesse trabalho, através da análise do mais recente conjunto de leilões realizados para alocação deste recurso, o leilão das licenças 3G na Europa, compreender os pormenores envolvidos desde a elaboração até o desfecho deste processo. Objetiva-se, por fim, enriquecer o debate sobre esse tema ao discutir-se o cenário brasileiro. O trabalho ao analisar os leilões europeus nos permite identificar que as regras do leilão, como comentado por diversos autores, não são diretamente transplantáveis entre diferentes ambientes. Afinal dentro do ambiente homogêneo caracterizado pelo continente europeu, apesar da semelhança entre os diversos modelos de leilão utilizados, o sucesso obtido em países como Reino Unido e Alemanha, não foi repassado aos demais, ao compararmos o preço pago per capta. Entretanto, o espectro tem seu valor altamente conectado à disponibilidade tecnológica de sua utilização, logo, espectro sem tecnologia adequada para seu uso é observado como de valor privado aproximadamente zero pelos participantes. Esse fenômeno foi caracterizado pelo baixo valor atribuído ao espectro não pareado. Apesar de valor ser relativamente nulo, não é zero, pois a aquisição do direito de uso do espectro pode representar um "hedge" para ser utilizado, senão hoje, quando a tecnologia estiver disponível. Porém sendo o espectro recurso escasso, a alocação deste para tecnologia ainda indisponível pode ser considerado ineficiente. Observa-se, também, que o "incumbent" tende a valorizar mais uma licença, porém não se conseguiu determinar se isso ocorre devido a maior quantidade de informação que este detém sobre o mercado, ou devido à tentativa de manter o "status quo" do oligopólio atual. Baseado no comentado anteriormente e nos resultados dos leilões torna-se evidente que caso o entrante não seja protegido, como o "incumbent" valoriza mais a licença este sempre pagará mais por esta. E caso, o entrante tenha esta certeza, este não virá participar do leilão, o que na maior parte dos casos inviabilizaria o leilão pois haveriam tantas licenças quanto participantes. Ao analisar-se o caso brasileiro identifica-se a presença de um jogo nacional e um subjogo regional, onde os participantes podem ser simultaneamente "incumbents" para uma região, porém entrantes em outra.
Resumo:
Este trabalho apresenta os modelos clássicos e neoclássicos desenvolvido por Jorgenson. Procura suprir alguns detalhes que foram omitidos e resumir o argumento principal que é exposto com riqueza de informações. Visa, desta forma, facilitar a leitura dos trabalhos do celebrado autor sobre economia dual.
Resumo:
O objetivo fundamental desta dissertação foi desenvolver modelos de estimativa da radiação solar no intuito de complementar a base de dados visando o traçado de mapas de radiação solar para o Rio Grande do Sul. Inicialmente foi realizada uma pesquisa na literatura sobre as metodologias desenvolvidas para a estimativa da radiação solar para locais onde inexistem dados medidos desta variável. Foi feito um levantamento das técnicas estatísticas utilizadas na previsão de valores de variáveis. As metodologias pesquisadas foram aplicadas ao banco de dados SAMSON (Solar and Meteorological Surface Observational Network). Entre as variáveis deste banco de dados estão a radiação solar, a umidade relativa, a temperatura, a latitude, a altitude e a nebulosidade. A metodologia dos modelos de estimativa aplicada neste trabalho baseia-se no Método dos Mínimos Quadrados. Foram realizadas correlações mensais e anuais entre as variáveis acima citadas e seus resultados validados através de validação cruzada. Resultou apropriada, na disponibilidade de dados climatológicos, a aplicação de modelos com parâmetros mensais de regressão linear múltipla envolvendo as variáveis explicativas: insolação, temperatura média e umidade relativa. Este modelo, entre outros, foi aplicado aos dados do Rio Grande do Sul. A metodologia acima descrita aplicada aos dados medidos no Rio Grande do Sul, resultou eficaz. Foram pesquisadas técnicas de interpolação para traçado de mapas e estabelecidas regras para o traçado dos mesmos. Foram utilizados dados periféricos para a Argentina, Uruguai e Santa Catarina. Foram feitos mapas mensais de médias mensais de radiação solar global horizontal diária bem como um mapa da média anual de radiação solar global horizontal diária. Observou-se que o modelo de Ångström–Prescott apresenta bons resultados quando se dispõe apenas da insolação Os mapas serão úteis para a pesquisa e implementação de sistemas empregando Energia Solar no Estado do Rio Grande do Sul. Finalmente, a principal conclusão é a de que modelos de correlações obtidos com dados de cada mês e produzindo parâmetros mensais são mais adequados do que um único modelo de correlação com parâmetros de validade anual utilizado nas estimativas mensais.