60 resultados para Modelos de dados de contagem


Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho é testar a aplicação de um modelo gráfico probabilístico, denominado genericamente de Redes Bayesianas, para desenvolver modelos computacionais que possam ser utilizados para auxiliar a compreensão de problemas e/ou na previsão de variáveis de natureza econômica. Com este propósito, escolheu-se um problema amplamente abordado na literatura e comparou-se os resultados teóricos e experimentais já consolidados com os obtidos utilizando a técnica proposta. Para tanto,foi construído um modelo para a classificação da tendência do "risco país" para o Brasil a partir de uma base de dados composta por variáveis macroeconômicas e financeiras. Como medida do risco adotou-se o EMBI+ (Emerging Markets Bond Index Plus), por ser um indicador amplamente utilizado pelo mercado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho tem por objetivo propor uma carteira composta por posições compradas e vendidas de ações que supere os principais Índices de mercado. O resultado é obtido através de um modelo de Lógica Fuzzy, que é um modelo de inteligência artificial que trata os dados de maneira lógica, ou seja, sem relacionar as variáveis através de modelos matemáticos convencionais. Para esse estudo utilizamos como variáveis de entrada os múltiplos Preço/Lucro Esperado e Preço/Valor Patrimonial da Empresa de cada ação considerada. Foram estudadas as ações do mercado americano pertencentes ao índice S&P 500, do ano de 2000 até 2007. Com o intuito de comparar a eficiência do Modelo de Lógica Fuzzy, utilizamos o modelo de Regressão Linear Multivariada e os índices de mercado S&P 500 e o S&P 500 com uma modificação para se adequar aos dados escolhidos para o estudo. O modelo proposto produziu resultados satisfatórios. Para quase todos os anos estudados o retorno da carteira obtida foi muito superior ao dos Índices de mercado e do modelo linear convencional. Através de testes adequados comprovamos estatisticamente a eficiência do modelo em comparação aos Índices de mercado e ao modelo linear convencional.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nos últimos anos, a indústria elétrica brasileira passou, basicamente, por duas reestruturações setoriais, implantadas segundo políticas e ideologias divergentes, mas que convergiram para o mesmo objetivo final: a busca por investimentos privados para dar suporte à expansão do sistema. Esse é o grande desafio do novo modelo institucional de 2004, que surge em um ambiente conturbado, de forte percepção de riscos e incertezas. A própria instabilidade regulatória é a grande responsável pelo recuo e ponderação na hora de investir. Contudo, a pergunta que se faz na presente pesquisa objetiva identificar os fatores motivadores da nova reestruturação setorial. Só assim, pode-se correlacionar os fatos do passado com a recente reforma, identificando possíveis deficiências e fatores críticos de sucesso. Para tanto, o presente estudo recorreu à literatura existente, assim como a entrevistas semi-estruturadas com especialistas do setor elétrico brasileiro. Os dados foram analisados qualitativamente, por meio de categorias estabelecidas a posteriori, buscando-se aceitar ou refutar suposições. As evidências sugerem que, apesar de a nova reforma institucional ter realizado avanços, ao introduzir mecanismos absorvidos, principalmente, a partir das experiências regulatórias dos últimos anos, dificuldades ainda permanecem e devem ser enfrentadas, especialmente no que tange à mitigação dos riscos ambientais e regulatórios, este último, percebido com maior intensidade a partir de 2004. Sendo assim, cabe ao governo federal, representado pelo Ministério de Minas e Energia (MME), conseguir atrair investimentos e proporcionar estabilidade regulatória, a fim de afastar o “fantasma” do racionamento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo do presente trabalho é analisar as características empíricas de uma série de retornos de dados em alta freqüência para um dos ativos mais negociados na Bolsa de Valores de São Paulo. Estamos interessados em modelar a volatilidade condicional destes retornos, testando em particular a presença de memória longa, entre outros fenômenos que caracterizam este tipo de dados. Nossa investigação revela que além da memória longa, existe forte sazonalidade intradiária, mas não encontramos evidências de um fato estilizado de retornos de ações, o efeito alavancagem. Utilizamos modelos capazes de captar a memória longa na variância condicional dos retornos dessazonalizados, com resultados superiores a modelos tradicionais de memória curta, com implicações importantes para precificação de opções e de risco de mercado

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho é testar modelos clássicos de real business cycles para a economia brasileira. Em um primeiro estágio busca-se fatos estilizados, o que foi feito através da escolha de séries adequadas e da separação dos componetes cíclicos e da análise dos ciclos resultantes. Os parâmetros dos diversos modelos foram estimados utilizando o Método Generalizado dos Momentos (MGM). Estes parâmetros foram utilizados para construir diversas economias artificiais que, após simulação, foram confrontadas com os dados da economia brasileira. Entre todos testados, o modelo que melhor se adequou aos dados foi de cash in advance com taxação distorciva. Entretanto, alguns fatos estilizados importantes, como por exemplo o excesso de volatilidade do consumo, não foram adequadamente reproduzidos pelos modelos testados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Utilizando dados financeiros brasileiros do Ibovespa, testa-se a validade dos modelos de valor presente (MVP) no mercado de ações. Estes modelos relacionam o preço de uma ação ao seu fluxo de caixa futuro esperado (dividendos) trazido a valor presente utilizando uma taxa de desconto constante ou variante ao longo do tempo. Associada a estes modelos está a questão da previsibilidade dos retornos num contexto de expectativas racionais. Neste artigo é realizada uma análise multivariada num arcabouço de séries temporais utilizando a técnica de Autorregressões Vetoriais. Os resultados empíricos corroboram, em grande medida, o MVP para o Ibovespa brasileiro, pois há uma igualdade estatística entre a previsão ótima do mercado para o spread do equilíbrio de longo prazo e seus valores observados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Utilizando dados financeiros brasileiros da BM&F, testa-se a validade do modelo de valor presente na estrutura a termo de juros, também conhecido na literatura como Hipótese das Expectativas. Estes modelos relacionam a taxa de juros de longo prazo à uma média das taxas de juros de curto-prazo mais um prêmio de risco, invariante no tempo. Associada a estes modelos está a questão da previsibilidade dos retornos de ativos financeiros ou, mais especificamente, à previsibilidade na evolução das taxas de juros. Neste artigo é realizada uma análise multivariada num arcabouço de séries temporais utilizando a técnica de Auto-Regressão Vetorial. Os resultados empíricos aceitam apenas parcialmente a Hipótese das Expectativas para a estrutura a termo de juros brasileira.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho visa identificar os limites e as possibilidades para aplicação de modelos de gestão estratégica na Universidade Federal de Mato Grosso. Através de estudo exploratório, procuro identificar a reação da instituição e dos seus servidores frente às mudanças ambientais. Utilizo-me da teoria de gestão estratégica para monitorar o ambiente organizacional a partir da identificação de pontos fracos e fortes, ameaças e oportunidades. Os dados são obtidos através de entrevista com seus dirigentes - Reitor, Pró-Reitores e Diretores de Institutos e Faculdades - e analisados qualitativamente. Delineia-se que a missão atual da UFMT é restrita, devendo ser reformulada no sentido de adaptar-se às mudanças. Verifica-se que não há esforço significativo tanto por parte da instituição como também da de seus servidores no sentido de impulsionar as transformações e de perceber o ambiente geral. Quando da sugestão de uma nova técnica para gerenciar a universidade, muitas dúvidas surgem quanto ao resultado prático de sua aplicação, uma vez que ainda há uma forte ligação com antigos paradigmas de administração. Ao analisar os dados obtidos, concluo que os fatores que podem limitar a implantação de modelos de gestão estratégica devem ser diagnosticados e avaliados com mais profundidade. Deve ser buscado o conhecimento das suas várias facetas e compreensão das suas especificidades em estudos futuros. Porém, esses limites não devem ser considerados impeditivos, mas sim estimuladores das mudanças, uma vez que os objetivos sociais que justificam a existência da UFMT são maiores que as relações de poder e a cultura de resistência à mudança existente no seu interior. O ambiente instável e turbulento favorece à mudança na forma convencional de administrar a Universidade; torna-se necessário uma decisão da instância superior para iniciar o processo. A gestão estratégica, como um sistema planejado de gestão, tem capacidade de dar respostas flexíveis e de aprendizado, assim como possibilita definir o crescimento da instituição.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Recentemente o mundo assistiu diversas manifestações em países árabes sendo impulsionadas pelo uso de tecnologias inovadoras como redes sociais, com poder inclusive de derrubada de governos e a divulgação de dados secretos que constrangeram Estados através da comunidade internacional Wikileaks. A grande modificação da economia informacional em rede na esfera pública é disponibilizar ferramentas que permitem ao cidadão não ser passivo na busca pela informação, mas possa participar da construção da informação e com isso ser ativo no processo de fiscalizar e garantir um rumo democrático para seu país, estado ou cidade. O objetivo geral desta dissertação de mestrado é identificar as formas pelas quais a sociedade civil no Brasil através do uso da web participa da esfera pública interconectada. Proposta por Benkler (2006), o conceito de esfera pública interconectada modifica a definição original habermasiana de esfera pública, e busca novos entendimentos sobre ela a partir das possibilidades apresentadas pelas novas tecnologias interativas associadas à Internet, como blogs, páginas web e redes sociais. As etapas da construção desta pesquisa foram: 1) a construção de uma tipologia das formas pelas quais a sociedade civil pode utilizar a Web para se relacionar na esfera pública interconectada; 2) um estudo de caso de uma iniciativa brasileira de uso da Web que influenciou na construção de políticas públicas para averiguar no contexto real a relação dessas iniciativas com os governos e seu processo de tomada de decisão; 3) uma análise dos impactos das iniciativas na Internet na tomada de decisão dos governos a partir da adaptação do método de análise da participação política proposto por Fung (2006) denominado Cubo da Democracia. Os resultados da pesquisa demonstraram que já existem no Brasil iniciativas da sociedade civil que fazem parte da esfera pública interconectada. Além de classificar as iniciativas quanto sua origem (oriundas de organizações ou cidadãos), estas também foram classificada conforme o grau de interatividade, desde aquelas que disponibilizavam informações sem nenhuma possibilidade de criação de conteúdo pelos cidadãos até aquelas que todo o conteúdo era gerado por qualquer um que desejasse participar.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dadas a importância dos professores para o processo educacional e a disponibilidade de dados para a estimação de medidas de eficácia dos professores, entendida como a capacidade em produzir resultados em termos da aprendizagem dos alunos, este trabalho buscou aplicar um modelo de valor agregado para estimar e analisar a eficácia de uma amostra dos professores que lecionaram para a 4ª série da rede municipal de ensino de São Paulo no ano de 2010. Obtivemos evidências de que a variação na eficácia dos professores explicaria cerca de 9% da variação nas notas dos alunos da amostra analisada, menos do que a variação nas variáveis de background dos alunos, em torno de 15%, mas mais do que a variação nas variáveis de escola, em torno de 5%. Na estimação dos efeitos professor individuais, os resultados indicam que um aumento de um desvio-padrão nos efeitos professor levaria a um aumento de, no mínimo, 0,062 desvio-padrão na proficiência dos alunos em Língua Portuguesa e 0,049 desvio-padrão em Matemática, que correspondem a, 2,79 pontos em Língua Portuguesa e 2,20 pontos em Matemática. Na análise dos fatores associados aos efeitos professor estimados, foram encontradas associações positivas entre as seguintes variáveis e os efeitos professor: o tempo dedicado ao trabalho pedagógico fora da escola, a freqüência com que o professor passa lição de casa e o uso dos Cadernos de Apoio e Aprendizagem. As análises acerca da confiabilidade e da estabilidade das medidas de efeito professor estimadas indicam que os dados utilizados têm uma capacidade limitada para subsidiar recomendações em relação às políticas de pessoal, porém permitem identificar que cerca de 13% dos professores tiveram efeitos estimados distintos da média. Dada essa distinção, esses professores são o público ideal para pesquisas futuras sobre suas práticas docentes, em especial sobre os fatores para os quais foi observada uma associação positiva com os efeitos professor estimados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A incipiente alta nas expectativas de inflação futura combinada com a busca do governo por juros nominais mais baixos e o maior intervencionismo via medidas convencionais e não convencionais na gestão da política econômica, pode ter deteriorado a percepção dos agentes de mercado quanto à credibilidade da Autoridade Monetária, mesmo que indicadores tradicionais de credibilidade ainda não mostrem isso. Este trabalho intui que a resposta de ativos à divulgação de dados macroeconômicos apresenta informações sobre a percepção do mercado da credibilidade do Banco Central, utilizando, então, uma base de dados de alta frequência para medir as respostas dos ativos e empregando o teste econométrico quasi-local level (QLL), busca avaliar se houve alguma instabilidade nos coeficientes de respostas que indique uma variação na percepção ao longo do tempo. A série de dados analisada compreende o período de 2006 a 2011 e o trabalho conclui que não houve variação nos coeficientes e, portanto, se houve alguma mudança positiva ou negativa na percepção de credibilidade, esta não pode ser inferida pelo método proposto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O trabalho tem como objetivo comparar a eficácia das diferentes metodologias de projeção de inflação aplicadas ao Brasil. Serão comparados modelos de projeção que utilizam os dados agregados e desagregados do IPCA em um horizonte de até doze meses à frente. Foi utilizado o IPCA na base mensal, com início em janeiro de 1996 e fim em março de 2012. A análise fora da amostra foi feita para o período entre janeiro de 2008 e março de 2012. Os modelos desagregados serão estimados por SARIMA, pelo software X-12 ARIMA disponibilizado pelo US Census Bureau, e terão as aberturas do IPCA de grupos (9) e itens (52), assim como aberturas com sentido mais econômico utilizadas pelo Banco Central do Brasil como: serviços, administrados, alimentos e industrializados; duráveis, não duráveis, semiduráveis, serviços e administrados. Os modelos agregados serão estimados por técnicas como SARIMA, modelos estruturais em espaço-estado (Filtro de Kalman) e Markov-switching. Os modelos serão comparados pela técnica de seleção de modelo Model Confidence Set, introduzida por Hansen, Lunde e Nason (2010), e Dielbod e Mariano (1995), no qual encontramos evidências de ganhos de desempenho nas projeções dos modelos mais desagregados em relação aos modelos agregados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Apresento aqui uma abordagem que unifica a literatura sobre os vários modelos de apreçamento de derivativos que consiste em obter por argumentos intuitivos de não arbitragem uma Equação Diferencial Parcial(EDP) e através do método de Feynman-Kac uma solução que é representada por uma esperança condicional de um processo markoviano do preço do derivativo descontado pela taxa livre de risco. Por este resultado, temos que a esperança deve ser tomada com relação a processos que crescem à taxa livre de risco e por este motivo dizemos que a esperança é tomada em um mundo neutro ao risco(ou medida neutra ao risco). Apresento ainda como realizar uma mudança de medida pertinente que conecta o mundo real ao mundo neutro ao risco e que o elemento chave para essa mudança de medida é o preço de mercado dos fatores de risco. No caso de mercado completo o preço de mercado do fator de risco é único e no caso de mercados incompletos existe uma variedade de preços aceitáveis para os fatores de risco pelo argumento de não arbitragem. Neste último caso, os preços de mercado são geralmente escolhidos de forma a calibrar o modelo com os dados de mercado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Trata os principais as aspectos envolvidos na avaliação econômica da reposição de equipamentos. Aborda os dados básicos e as diversas hipóteses de comportamento do equipamento que levam a uma grande variedade de modelos de avaliação relacionando e comparando estas hipóteses. Outrossim, introduz o tema definindo o campo de atuação da reposição de equipamentos e engenharia econômica, bem como descrevendo os principais métodos de avaliação econômica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Em compras realizadas pela internet ou televendas com cartões de crédito, em muitos países como Brasil e EUA, não há apresentação física do cartão em nenhum momento da compra ou entrega da mercadoria ou serviço, tampouco são populares mecanismos como senhas que assegurem a autenticidade do cartão e seu portador. Ao mesmo tempo, a responsabilidade por assumir os custos nessas transações é dos lojistas. Em todos os estudos anteriores presentes na literatura, a detecção de fraudes com cartões de crédito não abrangia somente esses canais nem focava a detecção nos principais interessados nela, os lojistas. Este trabalho apresenta os resultados da utilização de cinco das técnicas de modelagem mais citadas na literatura e analisa o poder do compartilhamento de dados ao comparar os resultados dos modelos quando processados apenas sobre a base da loja ou com ela compartilhando dados com outros lojistas.