25 resultados para Torta de filtro

em Repositório digital da Fundação Getúlio Vargas - FGV


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tendo como motivação o desenvolvimento de uma representação gráfica de redes com grande número de vértices, útil para aplicações de filtro colaborativo, este trabalho propõe a utilização de superfícies de coesão sobre uma base temática multidimensionalmente escalonada. Para isso, utiliza uma combinação de escalonamento multidimensional clássico e análise de procrustes, em algoritmo iterativo que encaminha soluções parciais, depois combinadas numa solução global. Aplicado a um exemplo de transações de empréstimo de livros pela Biblioteca Karl A. Boedecker, o algoritmo proposto produz saídas interpretáveis e coerentes tematicamente, e apresenta um stress menor que a solução por escalonamento clássico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tendo como motivação o desenvolvimento de uma representação gráfica de redes com grande número de vértices, útil para aplicações de filtro colaborativo, este trabalho propõe a utilização de superfícies de coesão sobre uma base temática multidimensionalmente escalonada. Para isso, utiliza uma combinação de escalonamento multidimensional clássico e análise de procrustes, em algoritmo iterativo que encaminha soluções parciais, depois combinadas numa solução global. Aplicado a um exemplo de transações de empréstimo de livros pela Biblioteca Karl A. Boedecker, o algoritmo proposto produz saídas interpretáveis e coerentes tematicamente, e apresenta um stress menor que a solução por escalonamento clássico. O estudo da estabilidade da representação de redes frente à variação amostral dos dados, realizado com base em simulações envolvendo 500 réplicas em 6 níveis de probabilidade de inclusão das arestas nas réplicas, fornece evidência em favor da validade dos resultados obtidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação pretende discutir a provisão de sinistros do tipo IBNR, bem como qual a melhor forma de estimar estas provisões. Para tanto, serão utilizados dados reais de uma grande seguradora Brasileira para um produto de seguro de um ramo Não Vida. Serão utilizados no cálculo o clássico método Chain Ladder e em contrapartida um modelo de Espaço de Estados e Filtro de Kalman, discutindo as flexibilidades, vantagens e desvantagens de se utilizar tal metodologia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem o objetivo de testar a qualidade preditiva do Modelo Vasicek de dois fatores acoplado ao Filtro de Kalman. Aplicado a uma estratégia de investimento, incluímos um critério de Stop Loss nos períodos que o modelo não responde de forma satisfatória ao movimento das taxas de juros. Utilizando contratos futuros de DI disponíveis na BMFBovespa entre 01 de março de 2007 a 30 de maio de 2014, as simulações foram realizadas em diferentes momentos de mercado, verificando qual a melhor janela para obtenção dos parâmetros dos modelos, e por quanto tempo esses parâmetros estimam de maneira ótima o comportamento das taxas de juros. Os resultados foram comparados com os obtidos pelo Modelo Vetor-auto regressivo de ordem 1, e constatou-se que o Filtro de Kalman aplicado ao Modelo Vasicek de dois fatores não é o mais indicado para estudos relacionados a previsão das taxas de juros. As limitações desse modelo o restringe em conseguir estimar toda a curva de juros de uma só vez denegrindo seus resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho estima por máxima verossimilhança um modelo de ciclos reais para as economias brasileira americana. Os parâmetros são estimados partir de um VAR na forma estrutural obtido de um modelo macroeconômico de horizonte infinito com agente representativo choque tecnológico. Como algumas variáveis necessárias para estimação do modelo não são observadas emprega-se, na rotina computacional escrita em Matlab, método de Filtro de Kalman. Desta forma, enfoque adotado apresenta-se como opção metodologia de calibração, bem como metodologia de modelos VAR com imputação ad hoc de condições de identificação. Para estimação do modelo construiu-se uma base de dados de tributação para o Brasil, desagregando em impostos sobre absorção, sobre rendimento do fator capital sobre fator trabalho para período 1949-1995. Também empreende-se ao longo da dissertação, um detalhamento minucioso da técnica econométrica empregada dos procedimentos computacionais adotados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Como se sabe, a lei brasileira de direitos autorais, Lei 9.610/98 (doravante designada LDA), é tida pelos especialistas no assunto como uma das mais restritivas de todo o mundo. Ao proibir a cópia integral de obra alheia, condutas que se afiguram corriqueiras no mundo contemporâneo são, a rigor, contrárias à lei. Por exemplo, diante dos termos estritos da LDA, quando uma pessoa adquire um CD numa loja, não pode copiar o conteúdo do CD para seu iPod, o que configura proibição incoerente com o mundo em que vivemos e com as facilidades da tecnologia digital. Dentro de um sistema jurídico que tem a Constituição Federal como filtro interpretativo (como é o nosso caso, no Brasil), é indispensável que as leis infraconstitucionais passem pelas lentes da Constituição. No entanto, nem sempre a reinterpretação das leis infraconstitucionais a partir do prisma constitucional será suficiente para aferir a legitimidade do uso de obras de terceiros, diante dos termos rígidos da LDA. É necessário buscar novos mecanismos para dar segurança jurídica a quem queira se valer de obras alheias. Como exemplo desses mecanismos, podemos mencionar as licenças públicas. O objetivo deste artigo é apresentar soluções que, ainda que incipientes se comparadas à estrutura secular e insatisfatória dos princípios legais do direito autoral vigente, encontram-se já ao alcance de todos e abrangem todos os tipos de obras de arte, indistintamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sistemas de recomendação baseados cooperação indireta podem ser implementados em bibliotecas por meio da aplicação de conceitos e procedimentos de análise de redes. Uma medida de distância temática, inicialmente desenvolvida para variáveis dicotômicas, foi generalizada e aplicada a matrizes de co-ocorrências, permitindo o aproveitando de toda a informação disponível sobre o comportamento dos usuários com relação aos itens consultados. Como resultado formaram-se subgrupos especializados altamente coerentes, para os quais listas-base e listas personalizadas foram geradas da maneira usual. Aplicativos programáveis capazes de manipularem matrizes, como o software S-plus, foram utilizados para os cálculos (com vantagens sobre o software especializado UCINET 5.0), sendo suficientes para o processamento de grupos temáticos de até 10.000 usuários.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é caracterizar a Curva de Juros Mensal para o Brasil através de três fatores, comparando dois tipos de métodos de estimação: Através da Representação em Espaço de Estado é possível estimá-lo por dois Métodos: Filtro de Kalman e Mínimos Quadrados em Dois Passos. Os fatores têm sua dinâmica representada por um Modelo Autorregressivo Vetorial, VAR(1), e para o segundo método de estimação, atribui-se uma estrutura para a Variância Condicional. Para a comparação dos métodos empregados, propõe-se uma forma alternativa de compará-los: através de Processos de Markov que possam modelar conjuntamente o Fator de Inclinação da Curva de Juros, obtido pelos métodos empregados neste trabalho, e uma váriavel proxy para Desempenho Econômico, fornecendo alguma medida de previsão para os Ciclos Econômicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste artigo, foi estimada a taxa natural de juros para a economia brasileira entre o final de 2001 e segundo trimestre de 2010 com base em dois modelos, sendo o primeiro deles o proposto por Laubach e Williams e o segundo proposto por Mesónnier e Renne, que trata de uma versão alterada do primeiro, que segundo os autores perimite uma estimação mais transparente e robusta. Em ambos os modelos, a taxa natural de juros é estimada em conjunto com o produto potencial, através de filtro de Kalman, no formato de um modelo Espaço de Estado. As estimativas provenientes dos dois modelos não apresentam diferenças relevantes, o que gera maior confiabilidade nos resultados obtidos. Para o período de maior interesse deste estudo (pós-2005), dada a existência de outras análises para período anterior, as estimativas mostram que a taxa natural de juros está em queda na economia brasileira desde 2006. A mensuração da taxa natural de juros, adicionalmente, possibilitou que fosse feita uma avaliação sobre a condução da política monetária implementada pelo Banco Central brasileiro nos últimos anos através do conceito de hiato de juros. Em linhas gerais, a análise mostrou um Banco Central mais conservador entre o final de 2001 e 2005, e mais próximo da neutralidade desde então. Esta conclusão difere da apontada por outros estudos, especialmente para o primeiro período.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho se propõe a testar a validade da hipótese da paridade câmbio-juro para o caso brasileiro e, posteriormente, a investigar a principal explicação apontada pela literatura para a falência da UIP, qual seja: a existência de um prêmio de risco cambial variante ao longo do tempo. A clássica abordagem das regressões de Fama, aplicadas para o período de livre flutuação cambial, sugere falência da hipótese em questão quando considerados contratos de NDF de doze meses sobre o real, identificando viés nos contratos futuros como estimadores da taxa de câmbio – não foi possível obter a mesma conclusão ao se trabalhar com contratos futuros de dólar de um mês negociados na BM&F. Feitas as regressões de Fama, replica-se ao caso brasileiro metodologia implementada por Clarida et. al. (2009) para os países desenvolvidos, na tentativa de capturar eventual relação entre a volatilidade e o excesso de retorno de uma estratégia de carry trade com o real. Em linha com os resultados obtidos pela experiência internacional, detecta-se correlação negativa entre a volatilidade e o excesso de retorno de tal estratégia. A partir de tal conclusão, revisitam-se as regressões de Fama para subperíodos, conforme a volatilidade. Períodos de maior volatilidade foram caracterizados por um incremento do coeficiente da regressão de Fama, novamente em um resultado alinhado àquele obtido por Clarida et. al. (2009). Esgotado o assunto circunscrito às regressões de Fama, passa-se à estimativa da série de prêmio de risco cambial propriamente dita, por meio da metodologia de Filtro de Kalman imposta à série de NDF de doze meses, a qual detectou um prêmio de risco cambial com média positiva na amostra considerada – em linha com a intuição -, mas com medidas de dispersão bastante elevadas. O estudo segue numa tentativa de modelar o prêmio de risco cambial através de um instrumental da família GARCH-M, sendo, entretanto, incapaz de prover boas estimativas para o comportamento da variável sob interesse. Inicia-se um novo capítulo com o intuito de introduzir microfundamentação ao prêmio de risco cambial, trazendo ao caso brasileiro método desenvolvido por Frankel (1982). A aderência da modelagem também foi baixa. Para terminar, apresenta-se investigação preliminar sobre a relação entre o prêmio de risco cambial e a presença de eventos considerados raros na série de PTAX, seguindo intuição levantada por Rietz (1988) e expandida por Barro (2005). A moeda brasileira carrega caráter leptocúrtico superior às demais componentes da amostra, indicando que, de fato, o prêmio de risco cambial exigido para se estar na moeda doméstica pode estar relacionado à recorrência de eventos supostamente raros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste artigo, foi estimada a taxa natural de juros para a economia brasileira entre o final de 2001 e segundo trimestre de 2010 com base em dois modelos, sendo o primeiro deles o proposto por Laubach e Williams e o segundo proposto por Mesónnier e Renne, que trata de uma versão alterada do primeiro, que segundo os autores perimite uma estimação mais transparente e robusta. Em ambos os modelos, a taxa natural de juros é estimada em conjunto com o produto potencial, através de filtro de Kalman, no formato de um modelo Espaço de Estado. As estimativas provenientes dos dois modelos não apresentam diferenças relevantes, o que gera maior confiabilidade nos resultados obtidos. Para o período de maior interesse deste estudo (pós-2005), dada a existência de outras análises para período anterior, as estimativas mostram que a taxa natural de juros está em queda na economia brasileira desde 2006. A mensuração da taxa natural de juros, adicionalmente, possibilitou que fosse feita uma avaliação sobre a condução da política monetária implementada pelo Banco Central brasileiro nos últimos anos através do conceito de hiato de juros. Em linhas gerais, a análise mostrou um Banco Central mais conservador entre o final de 2001 e 2005, e mais próximo da neutralidade desde então. Esta conclusão difere da apontada por outros estudos, especialmente para o primeiro período.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

À luz do instituído pela Constituição Federal de 1988, os direitos fundamentais passaram a ser vistos sob um novo olhar. Todavia, temas considerados complexos, como o transexualismo, segundo a Classificação Internacional das Doenças (CID 10) considerado “Transtorno de Identidade Sexual”, ainda suscitam maior aprofundamento por parte da sociedade, do poder judiciário e do poderes executivo e legislativo. O Sistema Único de Saúde – SUS passou a permitir a cirurgia de transgenitalização no Brasil, na qual se opera a redesignação de sexo, tendo sido estipulados por lei critérios para a sua realização. Após a cirurgia, surge um problema: o da identidade civil, uma vez que o novo gênero da pessoa operada não se coaduna com o seu registro civil, causando-lhe constrangimento. Não há lei que regule a matéria. A partir desta constatação, o presente estudo se propõe a explorar as decisões judiciais de todos os estados da Federação, por intermédio de pesquisa nos sites dos seus respectivos tribunais, bem como das cortes superiores, buscando os termos “transexual” e “prenome” e utilizando o filtro temporal a partir de 1988, ano da promulgação da Carta Cidadã, até final de 2010. Tendo em vista a falta de lei que normatize a matéria, o escopo primordial consiste na obtenção de uma narrativa de como vêm sendo decididas as demandas na temática ora proposta. A conclusão do trabalho sugere que apesar de não haver um marco normativo estabelecido, o discurso do poder judiciário se utiliza de diversos argumentos de ordem social, psicológica e jurídica, devidamente sistematizados e apreciados, bem como de princípios jurídicos, sendo, nesse caso, o princípio da dignidade da pessoa humana, previsto na Carta Magna, o mais utilizado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desse trabalho é obter um conjunto de evidências empíricas a respeito da dinâmica econômica de curto-prazo das regiões brasileiras para avaliar se as diferenças regionais resultam em ausência de sincronia econômica. Foi construida uma séries de evidências acerca do comportamento cíclico das regiões brasileiras, sendo uma parte delas por datação via o algoritmo de Bry Boschan e outra parte por meio da construção de um indicador do nível de atividade, pela metodologia de Stock e Watson de fatores dinâmicos. Em decorrência à dificuldade de disponibilidade de dados, só foi possível analisar dez estados brasileiros. Apesar das evidências geradas pelo algoritmo de Bry Boschan terem diferenças em relação as evidências geradas pelo modelo de Stock Watson, foi possível constatar que os ciclos regionais são bastante diferentes se comparados com os ciclos nacionais, sendo São Paulo o Estado que possui a maior sincronia e os Estados de Pernambuco e Rio Grande do Sul as menores. No entanto, duas recessões foram captadas na maioria dos estados, a de 2002 e a de 2008, sugerindo o quanto esses períodos foram abrangentes sendo que boa parte dos estados foi afetada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho tem como objetivo comparar a eficácia das diferentes metodologias de projeção de inflação aplicadas ao Brasil. Serão comparados modelos de projeção que utilizam os dados agregados e desagregados do IPCA em um horizonte de até doze meses à frente. Foi utilizado o IPCA na base mensal, com início em janeiro de 1996 e fim em março de 2012. A análise fora da amostra foi feita para o período entre janeiro de 2008 e março de 2012. Os modelos desagregados serão estimados por SARIMA, pelo software X-12 ARIMA disponibilizado pelo US Census Bureau, e terão as aberturas do IPCA de grupos (9) e itens (52), assim como aberturas com sentido mais econômico utilizadas pelo Banco Central do Brasil como: serviços, administrados, alimentos e industrializados; duráveis, não duráveis, semiduráveis, serviços e administrados. Os modelos agregados serão estimados por técnicas como SARIMA, modelos estruturais em espaço-estado (Filtro de Kalman) e Markov-switching. Os modelos serão comparados pela técnica de seleção de modelo Model Confidence Set, introduzida por Hansen, Lunde e Nason (2010), e Dielbod e Mariano (1995), no qual encontramos evidências de ganhos de desempenho nas projeções dos modelos mais desagregados em relação aos modelos agregados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa busca testar a eficácia de uma estratégia de arbitragem de taxas de juros no Brasil baseada na utilização do modelo de Nelson-Siegel dinâmico aplicada à curva de contratos futuros de taxa de juros de 1 dia da BM&FBovespa para o período compreendido entre 02 de janeiro de 2008 e 03 de dezembro de 2012. O trabalho adapta para o mercado brasileiro o modelo original proposto por Nelson e Siegel (1987), e algumas de suas extensões e interpretações, chegando a um dos modelos propostos por Diebold, Rudebusch e Aruoba (2006), no qual estimam os parâmetros do modelo de Nelson-Siegel em uma única etapa, colocando-o em formato de espaço de estados e utilizando o Filtro de Kalman para realizar a previsão dos fatores, assumindo que o comportamento dos mesmos é um VAR de ordem 1. Desta maneira, o modelo possui a vantagem de que todos os parâmetros são estimados simultaneamente, e os autores mostraram que este modelo possui bom poder preditivo. Os resultados da estratégia adotada foram animadores quando considerados para negociação apenas os 7 primeiros vencimentos abertos para negociação na BM&FBovespa, que possuem maturidade máxima próxima a 1 ano.