982 resultados para Estimação da curva de juros com cupom zero
Resumo:
A questão dos juros no direito brasileiro e a forma pela qual os tribunais pátrios tratam do problema evidenciam contradições com alguns princípios constitucionais e revelam posições políticas que acabam por obstaculizar o desenvolvimento do país, marcado por profundas disparidades econômicas e sociais. Expressivo contingente de operadores do direito apresenta flagrantes dificuldades de compreender e estabelecer relacionamentos consistentes entre os fenômenos jurídicos e fatos econômicos e financeiros. São frequentes os questionamentos judiciais envolvendo problemas relacionados com os juros e suas formas de acumulação e cobrança, trazendo como base de argumentação o anatocismo e a lei da usura. A escolha do tema deveu-se ao interesse de investigar com algum teor científico a consistência ou não de um sentimento que permeia parcelas significativas da sociedade brasileira de que algumas estruturas jurídicas e econômicas funcionam, na prática, de forma a privilegiar segmentos historicamente fortalecidos, em detrimento de uma maioria merecedora de maior apoio, denotando a contradição dessa prática com postulados, princípios e expressões filosóficos do nosso ordenamento jurídico, em especial o princípio da igualdade. Ademais, a ciência do direito e as ciências econômicas têm entre si mais pontos de convergências do que os operadores dessas duas áreas do conhecimento podem supor a priori. A investigação teve como foco principal os aspectos constitucionais, mas não se furtou a examinar comandos infraconstitucionais , doutrina e jurisprudência, claramente ligados ao tema central. Como exemplo, será examinada a inserção no texto original da Constituição de 1998 do limite de juros de doze por cento e o tratamento dado à questão pelo Supremo Tribunal Federal no julgamento da Ação Direta de inconstitucionalidade nº 4-7.
Resumo:
Os satélites para sensoriamento remoto atualmente dispoívies à comunidade científica possuem diferenies resoluções espaciais, por exemplo: SPOT 20 e 10 metros, LANDSAT-TM 30 metros e NOA-AVHRR 1100 metros. Essa resolução frequentemente não é grande o suficiente para um grande número de aplicações que necessitam de uma percepção da cena mais detalhada. Muitas vezes, no interior de uma célula de resolução (pixel) mais de uma classe ocorre. Este caso é conhecido como pixel mistura. Na classificação de imagens obtidas por sensoriamento remoto é comum a utilização de metodologias que atribuem somente uma classe a um pixel, como o procedimento clássico da máxima verossimilhança. Esse procedimento resulta frequentemente em uma estimação errônea das áreas ocupadas pelas classes presentes na cena. Em alguns casos, especialmente quando não há uma classe dominante, isto pode ser a fonte de um erro significativo. Desde o início dos anos 70, diferentes metodologias têm sido propostas para o trabalho num nível de subpixel. A grande vantagem do trabalho nesse nível é que um pixel não é necessariamente atribuído a somente uma classe. O pixel tem um grau que o correlaciona a cada classe: de zero(se a classe não ocorre no pixel) até 1 (a classe ocorre no pixel inteiro). Assim, cada pixel tem um vetor associado que estima a proporção de cada classe nele. A metodologia mais comumente utilizada considera a refletância do pixel mistura como uma combinação linear da refletância média de cada classe componente. De acordo com essa visão as refletâncias associadas às classes componentes são consideradas constantes conhecidas i.e., não são variáveis aleatórias. Assim, a proporção de cada classe no pixel é obtida pela resolução de um sistema de equações lineares. Uma outra metodologia é assumir as refletâncias que caracterizam as classes como sendo variáveis aleatórias. Nesta visão, as informações a respeito das distribuições das classes é utilizada. A estimativa das proporções de cada classe é obtida pelo vetor de proporções que maximiza a função de verossimilhança. Mais recentemente, uma visão diferente foi proposta: a utilização da lógica fuzzy. Esta metodologia utiliza o conceito de função de pertinência que é essencial à teoria dos conjuntos fuzzy. Esta função utiliza elementos com natureza estatística ou não para a estimação das proporções. No presente trabalho, duas funções de pertinência foram definidas: a primeira baseada na função densidade probabilidade gaussiana e a segunda baseada diretamente na distância de Mahalanobis. O objetivo deste estudo é avaliar cada uma das metodologias anteriores em termos de acurácia, performance e dados necessários. Para este objetivo, as metodologias foram implementadas computacionalmente e alimentadas com imagens LANDSAT-TM. Para a avaliação da acurácia dos modelos um estudo qualitativo foi executado.
Resumo:
Fundamentalmente, o presente trabalho faz uma análise elástica linear de pontes ou vigas curvas assimétricas de seção transversal aberta e de parede fina, com propriedades físicas, geométricas e raio de curvatura constantes ao longo do eixo baricêntrico. Para tanto, utilizaram-se as equações diferenciais de VLASOV considerando o acoplamento entre as deformações nas direções vertical, transversal, axial de torcão nal. Na solução do sistema de quatro equações com derivadas parciais foi utilizado um apropriado método numérico de integração (Diferenças Finitas Centrais). A análise divide-se, basicamente, em dois tipos: análise DINÂMICA e ESTATICA. Ambas são utilizadas também na determinação do coeficiente de impacto (C.M.D.). A primeira refere-se tanto na determinação das características dinâmicas básicas (frequências naturais e respectivos modos de vibração), como também na determinação da resposta dinâmica da viga, em tensões e deformações, para cargas móveis arbitrárias. Vigas com qualquer combinação das condições de contorno, incluindo bordos rotulados e engastados nas três direções de flexão e na torção, são consideradas. 0s resultados da análise teórica, obtidos pela aplicação de programas computacionais implementados em microcomputador (análise estática) e no computador B-6700 (análise dinâmica), são comparados tanto com os da bibliografia técnica como também com resultados experimentais, apresentando boa correlação.
Resumo:
Neste trabalho analisamos processos estocásticos com decaimento polinomial (também chamado hiperbólico) da função de autocorrelação. Nosso estudo tem enfoque nas classes dos Processos ARFIMA e dos Processos obtidos à partir de iterações da transformação de Manneville-Pomeau. Os objetivos principais são comparar diversos métodos de estimação para o parâmetro fracionário do processo ARFIMA, nas situações de estacionariedade e não estacionariedade e, além disso, obter resultados similares para o parâmetro do processo de Manneville-Pomeau. Entre os diversos métodos de estimação para os parâmetros destes dois processos destacamos aquele baseado na teoria de wavelets por ser aquele que teve o melhor desempenho.
Resumo:
Neste trabalho analisamos alguns processos com longa dependência sazonais, denotados por SARFIMA(0,D, 0)s, onde s é a sazonalidade. Os estudos de estimação e previsão estão baseados em simulações de Monte Carlo para diferentes tamanhos amostrais e diferentes sazonalidades. Para estimar o parâmetro D de diferenciação sazonal utilizamos os estimadores propostos por Geweke e Porter-Hudak (1983), Reisen (1994) e Fox e Taqqu (1986). Para os dois primeiros procedimentos de estimação consideramos seis diferentes maneiras de compor o número de regressores necessários na análise de regressão, com o intuito de melhor comparar seus desempenhos. Apresentamos um estudo sobre previsão h-passos à frente utilizando os processos SARFIMA(0,D, 0)s no qual analisamos o erro de previsão, as variâncias teórica e amostral, o vício, o pervício e o erro quadrático médio.
Resumo:
A tarefa de estimação de movimento, utilizada na compressão de vídeo digital, é normalmente realizada em hardware por processador dedicado, uma vez que demanda expressiva capacidade computacional. Este trabalho propõe e desenvolve uma arquitetura de hardware para realizar o cálculo dos vetores de movimento no contexto de compressão de vídeo digital. Essa arquitetura para estimação de movimento é composta pelos blocos: interface de entrada e saída (E/S), matriz de processamento com 64 elementos de processamento, unidade de comparação e unidade de controle. A arquitetura foi descrita em linguagem VHDL de maneira que o número de bits utilizados para representação da luminância dos pontos é configurável. A partir desta descrição, foi gerado um protótipo para dados representados em 4 bits utilizando um kit de desenvolvimento baseado no dispositivo FPGA XC2S150 da Xilinx. Para validação do algoritmo e da arquitetura implementada, além da simulação, foi desenvolvido um software para plataforma PC capaz de exercitar as funcionalidades do protótipo. O PC é utilizado como dispositivo controlador de E/S para esta validação, na qual uma implementação do algoritmo em software e outra em linguagem de descrição de hardware são comparadas. A máxima freqüência de trabalho do protótipo, estimada por simulação da arquitetura mapeada no FPGA XC2S150, é de 33 MHz. A esta freqüência o núcleo da arquitetura paralela de 64 elementos de processamento realiza cerca de 2,1 GOps (bilhões de operações inteiras por segundo). Esta arquitetura de hardware calcula os vetores de movimento para vídeo no formato 640x480 pontos à taxa de 107,32 quadros por segundo, ou um quadro a cada 9,3 ms. A arquitetura implementada para luminânica em 4 bits ocupa 16 pinos de E/S, 71,1% dos blocos lógicos do FPGA e 83,3% dos blocos de memória disponíveis no dispositivo XC2S150.
Resumo:
The aim of this thesis is to investigate the existence and relevance of the bank-lending channel in Brazil. For that purpose we use balance-sheet data of Brazilian financial institutions, and adopt a methodology based in Kashyap and Stein (2000), who use twostage and panel estimations. We find that restrictive monetary policy – represented by interest rate increases – lower the sensibility of bank lending to the liquidity of its assets. In other words, increases in the interest rate lead to less binding bank liquidity restrictions. Therefore, the existence of a bank-lending channel for the transmission of monetary policy in Brazil is refused.
Resumo:
O presente estudo pretende analisar o mercado brasileiro de alumínio primário, através da elaboração e simulação dinâmica de um modelo econométrico, com capacidade de explicar satisfatoriamente as relações típicas das variáveis econômicas consideradas neste mercado, conforme são postuladas pela teoria da empresa em competição imperfeita.
Resumo:
None
Resumo:
Utilizando dados financeiros brasileiros da BM&F, testa-se a validade do modelo de valor pre- sente (MVP) na estrutura a termo de juros, também conhecido na literatura como Hipótese das Expectativas. Estes modelos relacionam a taxa de juros de longo prazo à uma média das taxas de juros de curto-prazo mais um prêmio de risco, invariante no tempo. Associada a estes modelos está a questão da previsibilidade dos retornos de ativos financeiros ou, mais especificamente, a previsibilidade na evolução das taxas de juros. Neste artigo é realizada uma análise multivariada em um arcabouço de séries temporais utilizando a técnica de Au- torregressões Vetoriais. Os resultados empíricos aceitam apenas parcialmente a Hipótese das Expectativas para a estrutura a termo de juros brasileira.
Resumo:
Neste trabalho compara-se diversos métodos de determinação da volatilidade de uma ação, quando a finalidade é tornar um dado spread de opções delta-neutro, usando o modelo de Black-Scholes. Os spreads são formados com o objetivo de gerar lucros de arbitragem, através de uma estratégia de exploração sistemática de distorções de volatilidades implícitas das opções de compra da Telebrás na BOVESPA, no período de Abril de 93 a Maio de 95. A comparação dos métodos é feita através de medidas da eficiência dos mesmos em hedgear os spreads formados. Nessas condições, conclui-se que a melhor maneira de tomar a carteira delta-neutra é usando para cada opção a sua respectiva volatilidade implícita. Além disso, verifica-se que teria sido possível, para um agente com baixos custos de transação, obter lucros substanciais com a estratégia de trading utilizada.
Resumo:
O objetivo da dissertação foi obter um modelo de previsão para os preços dos imóveis, praticados no mercado imobiliário da cidade do Rio de Janeiro no ano 2000, utilizando a Metodologia do Preço Hedônico (HPM), que deve reponder a duas questões: a) Quais são as características relevantes; b) Qual é a forma de relacionamento entre os preços e as características. O modelo de previsão foi obtido, com base em procedimentos econométricos, e teve duas etapas distintas. Na primeira etapa, de formulação do modelo, foram realizadas regressões paras as formas funcionais mais utilizadas pelos estudos na área, a saber, a forma funcional linear, dupla logarítmica e semilogarítmica. Em seguida foi utilizado o procedimento de seleção de modelos “geral para específico”. A segunda etapa consistiu na previsão fora da amostra. Isto é, a partir das formas funcionais reduzidas e utilizando-se dos coeficientes das variáveis significativas, obteve-se os preços estimados e em seguida foram comparados com os preços efetivamente praticados pelo mercado. Calculou-se, então, os Erro Quadrático Médio (EQM) e o Erro Absoluto Médio (EAM) e com o auxílio dos testes de diagnósticos e igualdade de variância, escolheu-se a forma funcional que melhor se adequou aos dados Desta forma, para um nível de significância de 5%, a forma funcional que melhor se adequou aos critérios estabelecidos foi a dupla logarítmica e apresentou como resultado da estimação um R2=92,63% e dentre as características mais relevantes para estimação do preço do imóvel pode-se destacar, entre outras, o tamanho do imóvel como características físicas; a ocorrência de roubos como características de segurança, a quantidade disponível de bens e serviços destinados ao lazer como características de vizinhança e a disponibilidade ou não de serviços de hotelaria como características dummies.
Resumo:
Este estudo tem o objetivo de comparar várias técnicas que podem ser empregadas para proteger posições à vista usando mercados futuros. Partindo de uma posição na qual o investidor está à mercê do mercado, adota-se as técnicas mais simples de proteção até chegar a estimação da razão ótima de hedge ou de risco mínimo utilizando o modelo condicional, modelo no qual a variância é dependente do tempo. Para justificar a utilização da razão ótima de hedge dinâmica é introduzida a possibilidade de haver custo de transação. Os dados utilizados neste estudo são o preço à vista e preço de ajuste futuro do IBOVESPA do período 13/07/90 à 14/12/95.