730 resultados para estimação viesada


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o intuito de utilizar uma rede com protocolo IP para a implementação de malhas fechadas de controle, este trabalho propõe-se a realizar um estudo da operação de um sistema de controle dinâmico distribuído, comparando-o com a operação de um sistema de controle local convencional. Em geral, a decisão de projetar uma arquitetura de controle distribuído é feita baseada na simplicidade, na redução dos custos e confiabilidade; portanto, um diferencial bastante importante é a utilização da rede IP. O objetivo de uma rede de controle não é transmitir dados digitais, mas dados analógicos amostrados. Assim, métricas usuais em redes de computadores, como quantidade de dados e taxa de transferências, tornam-se secundárias em uma rede de controle. São propostas técnicas para tratar os pacotes que sofrem atrasos e recuperar o desempenho do sistema de controle através da rede IP. A chave para este método é realizar a estimação do conteúdo dos pacotes que sofrem atrasos com base no modelo dinâmico do sistema, mantendo o sistema com um nível adequado de desempenho. O sistema considerado é o controle de um manipulador antropomórfico com dois braços e uma cabeça de visão estéreo totalizando 18 juntas. Os resultados obtidos mostram que se pode recuperar boa parte do desempenho do sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tese tem como objetivo discutir a liquidez do mercado secundário de títulos da dívida pública no Brasil. Em três ensaios, defende que problemas de organização do mercado prejudicam a ampliação da liquidez e que a formação de preços nesse mercado acompanha as taxas do mercado futuro de depósitos interfinanceiros – DI futuro, e não o contrário, como esperado, já que a presença de títulos de elevada liquidez no mercado à vista é que deveria desenvolver o mercado futuro. O primeiro ensaio mede e estima os determinantes do bid-ask spread cotado (indicador de liquidez) para cada vértice de taxa de juros, tendo como referência os vencimentos dos títulos pré-fixados em cabeça de semestre: LTNs (LTN-13 e LTN-11) e NTNFs- (NTNF-17, NTNF-14). Mercados com menores spreads são mais líquidos, mercados com spreads maiores são menos líquidos. Os modelos empíricos foram estimados por meio de análises de séries de tempo. O trabalho utiliza o cálculo do bid-ask cotado para medir a liquidez dos títulos em análise, medido pela diferença entre o ask price e o bid price de fechamento do mercado. A estimação dos determinantes da liquidez de mercado foi realizada com base no método dos mínimos quadrados ordinários (MQO). O modelo testa se maturidade e volume de negócio determinam o bid-ask spread dos títulos. Mercados com menores spreads são mais líquidos do que mercados com maiores spreads. Os resultados mostram que a mediana e a média do bid-ask spread cotado crescem com a maturidade dos títulos. Os sinais dos parâmetros das regressões confirmam para a maioria dos vértices dos vértices analisados neste trabalho a hipótese inicial de que o bid-ask spread aumenta com a elevação maturidade e diminui com maior volume negociado, confirmando a hipótese de baixa liquidez dos títulos públicos no mercado secundário brasileiro. O segundo ensaio analisa uma singularidade relevante do mercado brasileiro: a dependência da formação dos preços e da taxa de juros no mercado secundário de títulos públicos (LTN e NTNF) em relação ao DI futuro. As variáveis utilizadas foram o bid-ask spread cotado e o volume negociado no mercado de títulos públicos e de DI futuro. O ensaio utiliza tanto o método de Granger (1969), que tem como suposto que as informações relevantes para a previsão das variáveis estão contidas exclusivamente nos dados das séries temporais destas mesmas variáveis, quanto o modelo de Geweke (1982) para testar a causalidade, simultaneidade e dependência linear entre as duas séries no tempo. Os resultados confirmam a hipótese inicial de que bid-ask spread e volume de títulos públicos possuem forte dependência do bid-ask spread e do volume para contratos de DI futuro de mesmo vencimento, dependência devida à causalidade do mercado de DI futuro para o mercado de títulos públicos para a maioria dos vértices analisados nesse trabalho, indicando que a taxa CDI é benchmark para a precificação dos títulos públicos. Uma possível explicação está nos fatores de microestrutura, que fazem com que esse mercado seja o mais conveniente para negociar risco de liquidez e de mercado. O terceiro ensaio discute as implicações do desenho institucional sobre a liquidez do mercado secundário de títulos públicos - mecanismos e regras de negociação, desenho dos títulos e base de investidores. Essas regras afetam a formação dos preços no mercado, definem as trocas, a dimensão da assimetria de informação e os custos de transação e do processo de negociação. Pela sua relevância, a organização do mercado de títulos públicos tem sido objeto de reformas em diversos países. O terceiro ensaio é finalizado com a análise das medidas adotadas no Brasil e de seus resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um dos grandes desafios na gestão de uma carteira de renda fixa passa pela estimação da curva de juros dos títulos que a compõe. Sua correta estimação e a identificação dos fatores de risco associados a estes títulos são imprescindíveis para uma boa gestão de uma carteira de renda fixa, assim como para o correto apreçamento dos ativos. O presente trabalho tem por objetivo estimar a curva de juros real da economia brasileira a partir de um conjunto de títulos negociados no mercado. Os títulos em questão são as notas do tesouro nacional série B (NTN-B), que tem sua rentabilidade vinculada à variação da inflação (IPCA), acrescida de juros definidos no momento da compra. Por se tratar de títulos que pagam cupom não se pode observar num primeiro momento sua estrutura a termo, nesse sentido, serão apresentados modelos capazes de extrair a curva “zero cupom” a partir destes títulos e estimar a estrutura a termo da taxa de juros real. Através da análise de componentes principais será possível identificar os principais fatores responsáveis por movimentos na curva estimada e consequentemente no preço do título. Alguns cenários macroeconômicos serão elaborados de forma a estudar o comportamento dos títulos frente a choques nesses fatores (análise de sensibilidade). A elaboração de cenários e a análise das prováveis trajetórias para o preço deste título auxiliarão na gestão de carteiras de títulos de renda fixa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho, com base na literatura teórica e empírica que trata da taxa de câmbio real, tem como objetivo investigar, por meio da estimação de um modelo de correção de erros, as principais variáveis que afetaram a taxa de câmbio real no período 1999/2010. A amostra utilizada começa com a implementação do regime de metas de inflação pelo Banco Central do Brasil (BCB) e pela adoção do câmbio flexível. O modelo de correção dos erros (VECM) foi estimado para duas taxas de câmbio reais efetivas, uma deflacionada pelo IPCA (Índice de Preço ao Consumidor Amplo) e outra pelo IPA (Índice de Preço no Atacado). Os resultados apontam que as principais variáveis que afetaram a taxa de câmbio real de equilíbrio no longo prazo foram: diferencial de juros, gastos do governo, produtividade, termos de troca, transações correntes e dívida externa total.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta tese é colaborar com a discussão sobre o papel da política fiscal em nível macroeconômico, seja em termos do impacto sobre as flutuações de curto prazo no produto e demais variáveis agregadas, ou no efeito que esta exerce sobre o crescimento e bem estar de longo prazo, sendo que uma atenção especial será dada ao papel dos gastos produtivos do governo. A análise de curto prazo é baseada em um modelo de Real Business Cycle (RBC) em que o capital público entra na função de produção como um insumo adicional ao capital privado e ao trabalho, sendo que o governo mantém o orçamento equilibrado a cada período. Os resultados indicam que o modelo consegue reproduzir bem a alta volatilidade dos gastos do governo e o caráter procíclico da política fiscal no Brasil, para o período de 1950 a 2003. Posteriormente, é feita a estimação dos principais parâmetros que influenciam a política fiscal pelo método bayesiano. As variáveis fiscais (investimento, consumo e taxa de impostos) ajudam a explicar boa parte do comportamento das variáveis privadas. Em termos de bem estar, o modelo prevê que aumentar o investimento do governo através de uma diminuição no consumo do mesmo gera um ganho de bem estar considerável, bem como reduções na taxa de impostos. A análise de longo prazo é baseada um modelo de gerações sobrepostas e crescimento endógeno com dívida pública, onde o governo executa gastos considerados produtivos e improdutivos. Os resultados do modelo teórico indicam que o impacto dos gastos produtivos do governo sobre o crescimento de longo prazo depende negativamente do tamanho da dívida, da carga tributária e do déficit primário, podendo ocorrer um cenário com equilíbrios múltiplos. De maneira a testar as predições teóricas, é estimada uma equação de crescimento em função do gasto produtivo e interações com as demais variáveis fiscais para uma amostra de países heterogêneos, e de fato, comprovam-se empiricamente os resultados do modelo teórico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O modelo de três fatores de Fama & French (1993) é uma extensão do modelo de precificação de ativos de Sharpe (1963), Lintner (1965) e Black (1972), o CAPM. Em Fama & French (1993), o valor de mercado e o valor contábil das empresas são adicionados como variáveis explicativas ao fator de risco de mercado β do CAPM. O objetivo deste trabalho é testar o poder explicativo do modelo de três fatores para o mercado acionário brasileiro. A inovação deste trabalho foi a utilização de um universo de ações móvel, no qual os títulos que são lançados na Bovespa no período de análise vão sendo incorporadas à base de dados conforme atingem os requisitos do modelo. Trata-se de uma abordagem inovadora, já que tradicionalmente o universo de ações que compõe a amostra é rígido do início ao fim do período de análise. Esta abordagem foi desenvolvida com o intuito de mitigar o problema de falta de dados do mercado acionário brasileiro. O período de análise foi de 2000 à 2011, e as ações utilizadas foram todas aquelas que possuíam um histórico confiável e apresentaram pelo menos um negócio à cada dois meses. A análise do Modelo de Três Fatores foi realizada utilizando a metodologia de séries temporais de Black, Jensen e Scholes (1972), da mesma forma que Fama & French (1993). Como variável dependente foram utilizadas 16 carteiras, oriundas do cruzamento das ações dividas em 4 percentis iguais pelos seus valores de mercado (ME), e 4 percentis iguais pela razão valor de mercado pelo valor contábil (ME/BE). Como variáveis independentes foram construídas duas séries de retorno que replicam os fatores de risco valor de mercado, SMB, e a razão valor de mercado pelo valor contábil, HML. Estas foram construídas pela diferença dos retornos das ações de maior ME e menor ME; e pela diferença do retorno das de maior ME/BE, pelas de menor ME/BE. O método de estimação dos coeficientes das regressões utilizado foi o dos mínimos quadrados ordinários. Os resultados do Modelo encontrados para a bolsa brasileira foram similares àqueles encontrados por Fama & French (1993). O Modelo apresentou maior poder explicativo para os retornos dos portfolios analisados que o CAPM, e mostrou-se estatisticamente significante para 15 das 16 carteiras. Os coeficientes das regressões relativos aos fatores de risco SMB e HML apresentaram, em sua maioria, os mesmo sinais que os encontrados por Fama & French (1993). Foi encontrada uma discrepância relativa ao sinal do fator HML para as carteiras de maior ME/BE, cuja explicação está atrelada ao momento da economia e mercados no período. Por fim, o Modelo e a discrepância foram reavaliados dividindo-se o período de análise em pré e pós-crise de 2008. O modelo mostrou maior poder explicativo para o período pós-crise que para o pré-crise. A mesma discrepância do sinal de HML foi encontrada no pré-crise, entretanto não foi verificada no pós-crise.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Busca-se como objetivo geral, através da estimação de uma equação de demanda por moeda de longo prazo para o Brasil, período 1980-2001, testar a sua estabilidade, o que implica analisar a evolução dos coeficientes ao longo do tempo, bem como mensurar o desempenho acerca do grau de previsibilidade de demanda futura por encaixes reais, comparando sua eficiência no prognóstico com aquelas que se obteriam utilizando técnicas de estimação Mínimos Quadrados Ordinários (MQO) e Mínimos Quadrados Ordinários Recursivos (MQOR), ambas de caráter não adaptativo. Além disso, como resultado da análise percuciente das trajetórias dos parâmetros, a política monetária exercida no período é recuperada. Os resultados rejeitam a hipótese nula de estabilidade da demanda de moeda, encontrando-se que os parâmetros apresentam flutuações importantes não ilustradas pelo procedimento MQO, tendo se destacado o período 1986-1992 como o mais instável. Como era de se esperar, nos testes de capacidade de previsão, a estimação por meio do Filtro de Kalman supera as demais técnicas, evidenciando a ocorrência de mudanças nos regimes de política.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, desenvolveram-se modelos matemáticos simplificados para o cálculo de duas variáveis importantes no estudo da extrusão de polímeros: vazão mássica (M&) e pressão na saída da extrusora (Psaída), em função das propriedades dos materiais e das condições de operação do equipamento. Podem-se utilizar esses modelos como ferramentas simples para a definição de critérios de ajustes que se devem fazer em uma extrusora de parafuso único para obter-se o desempenho desejado quando se alimenta o equipamento com um novo material. Para desenvolverem-se os modelos simplificados, utilizaram-se dados experimentais da extrusão de poliestireno (PS) e de polipropileno (PP), bem como resultados preditos por um programa computacional de simulação de extrusão disponível comercialmente. Mediram-se os dados experimentais de vazão mássica e de pressão na saída da extrusora em um equipamento de parafuso único de 45 mm de diâmetro. Realizaram-se esses testes, variando-se a velocidade de rotação do parafuso de 70 a 100 rpm para ambos os polímeros. No primeiro conjunto de simulações, utilizou-se o simulador Flow 2000 (Compuplast Inc.) para ajustarem-se os valores preditos de M& e de Psaída aos dados obtidos experimentalmente através da estimação dos fatores de atrito barril-polímero tanto para o PP quanto para o PS. Posteriormente, realizou-se um planejamento de experimentos, do tipo fatorial fracionado , para obter-se um segundo conjunto de simulações, considerando-se as propriedades dos materiais (reológicas e térmicas) e as condições de operação da extrusora (velocidade de rotação do parafuso e perfil de temperatura nas zonas de aquecimento da extrusora) como fatores de investigação. Com as novas simulações no Flow 2000, ajustaram-se os parâmetros dos modelos simplificados aos valores de vazão mássica e de pressão na saída da extrusora preditos no simulador. Elaboraram-se os modelos simplificados levando-se em conta as interações entre os fatores cujos efeitos consideraram-se significativos nas análises de variância (ANOVA). Obteve-se um modelo linear com 37 termos para o cálculo da vazão mássica e um modelo linear com 41 termos para o cálculo da pressão na saída da extrusora. Posteriormente, aplicou-se uma técnica de regressão multivariável para selecionar apenas os termos importantes dessas 1402IV2− XVI equações, conduzindo a um modelo linear com 10 termos para o cálculo da vazão mássica e a um modelo com 6 termos para o cálculo da pressão na saída da extrusora. Conseguiu-se boa concordância entre os dados experimentais e os valores preditos quando se aplicaram os modelos simplificados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese tem como objetivo principal aproximar a evidencia empirica existente sobre os agregados macroeconomicos com as novas evidencias empiricas baseadas nos micro dados de precos ao consumidor, tendo como base os modelos padroes de rigidez de preco utilizados na literatura de politica monetaria. Para isso, esta tese utiliza a base de dados individuais de precos ao consumidor no Brasil fornecida pela Fundacao Getulio Vargas. Especificamente, esta tese foca em tres temas principais: a existencia de variac˜oes temporararias de precos, a heterogeneidade na rigidez de precos entre firmas de um mesmo setor e o formato das func˜oes hazard. Os resultados mostram que: existe de fato uma correlac˜ao entre as variaveis referentes as mudancas temporararias de precos e os agregados macroeconomicos; a heterogeneidade na rigidez de precos entre firmas de um mesmo setor apresenta efeitos significativos sobre a dinamica dos agregados macroeconomicos; e por fim, o formato mais geral da func˜ao hazard proposta nesta tese possibilita novas dinamicas dos agregados macroeconomicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa objetivou analisar o impacto do microcrédito junto aos microempreendedores beneficiados pela Instituição de Microcrédito ICC-Blusol de Blumenau, Santa Catarina. De um total de 5.451 clientes foram selecionados e analisados 94, os quais obtiveram microcrédito durante os 10 últimos anos. Para testar a veracidade da afirmação, utilizou-se modelo econométrico utilizando a técnica de dados em painel, através da estimação das variáveis no modelo de efeitos fixos e efeitos aleatórios. Como variável independente utilizou-se a premissa "Valor do Empréstimo" e como variáveis dependentes "Vendas", "Resultado Operacional", "Garantia Real", "Garantia Aval", "Recursos Humanos", "Custos Fixos" e "Custos Variáveis". Conclui -se que somente as variáveis "Vendas" e "Resultado Operacional" validam a afirmação de que o acesso ao microcrédito resulta em incremento de Faturamento e Renda. A criação e manutenção de empregos, embora não tenha sido comprovada na análise estatística, ficou evidente, pois a simples sobrevivência da empresa já pressupõe isto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O conceito de paridade coberta de juros sugere que, na ausência de barreiras para arbitragem entre mercados, o diferencial de juros entre dois ativos, idênticos em todos os pontos relevantes, com exceção da moeda de denominação, na ausência de risco de variação cambial deve ser igual a zero. Porém, uma vez que existam riscos não diversificáveis, representados pelo risco país, inerentes a economias emergentes, os investidores exigirão uma taxa de juros maior que a simples diferença entre as taxas de juros doméstica e externa. Este estudo tem por objetivo avaliar se o ajustamento das condições de paridade coberta de juros por prêmios de risco é suficiente para a validação da relação de não-arbitragem para o mercado brasileiro, durante o período de 2007 a 2010. O risco país contamina todos os ativos financeiros emitidos em uma determinada economia e pode ser descrito como a somatória do risco de default (ou risco soberano) e do risco de conversibilidade percebidos pelo mercado. Para a estimação da equação de não arbitragem foram utilizadas regressões por Mínimos Quadrados Ordinários, parâmetros variantes no tempo (TVP) e Mínimos Quadrados Recursivos, e os resultados obtidos não são conclusivos sobre a validação da relação de paridade coberta de juros, mesmo ajustando para prêmio de risco. Erros de medidas de dados, custo de transação e intervenções e políticas restritivas no mercado de câmbio podem ter contribuído para este resultado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dadas a importância dos professores para o processo educacional e a disponibilidade de dados para a estimação de medidas de eficácia dos professores, entendida como a capacidade em produzir resultados em termos da aprendizagem dos alunos, este trabalho buscou aplicar um modelo de valor agregado para estimar e analisar a eficácia de uma amostra dos professores que lecionaram para a 4ª série da rede municipal de ensino de São Paulo no ano de 2010. Obtivemos evidências de que a variação na eficácia dos professores explicaria cerca de 9% da variação nas notas dos alunos da amostra analisada, menos do que a variação nas variáveis de background dos alunos, em torno de 15%, mas mais do que a variação nas variáveis de escola, em torno de 5%. Na estimação dos efeitos professor individuais, os resultados indicam que um aumento de um desvio-padrão nos efeitos professor levaria a um aumento de, no mínimo, 0,062 desvio-padrão na proficiência dos alunos em Língua Portuguesa e 0,049 desvio-padrão em Matemática, que correspondem a, 2,79 pontos em Língua Portuguesa e 2,20 pontos em Matemática. Na análise dos fatores associados aos efeitos professor estimados, foram encontradas associações positivas entre as seguintes variáveis e os efeitos professor: o tempo dedicado ao trabalho pedagógico fora da escola, a freqüência com que o professor passa lição de casa e o uso dos Cadernos de Apoio e Aprendizagem. As análises acerca da confiabilidade e da estabilidade das medidas de efeito professor estimadas indicam que os dados utilizados têm uma capacidade limitada para subsidiar recomendações em relação às políticas de pessoal, porém permitem identificar que cerca de 13% dos professores tiveram efeitos estimados distintos da média. Dada essa distinção, esses professores são o público ideal para pesquisas futuras sobre suas práticas docentes, em especial sobre os fatores para os quais foi observada uma associação positiva com os efeitos professor estimados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como objetivo analisar os resultados de uma operação de hedge de um diversificado portfólio de crédito de empresas brasileiras através do uso de ativos de equity. Inicialmente, faz-se uma alusão aos principais aspectos teóricos da presente dissertação com suas definições e revisão bibliográfica. Posteriormente, são apresentados os parâmetros básicos da seleção da amostra utilizada e do período durante o qual tal estratégia de proteção será implementada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho busca analisar a relação entre as taxas de câmbio e a inflação no Brasil, tanto entre médias quanto entre volatilidades, fazendo uso de instrumentais econométricos mais sofisticados que aqueles até então aplicados na literatura existente. No que se refere à relação entre médias, ou a estimação do pass-through da taxa de câmbio para a inflação, analisou-se a relação entre tais variáveis no período compreendido entre 1980 e 2002, considerando dois índices de preços ao consumidor (IPCA e IGP-DI) e um índice de preços ao produtor (IPA-DI). A abordagem teórica partiu do modelo de FEENSTRA e KENDAL (1997), com algumas adaptações para a economia brasileira. Os testes empíricos foram realizados aplicando o Filtro de Kalman, após a demonstração de que este gera melhores resultados que as estimações por OLS tradicionalmente usadas. Os resultados mostram que o ambiente inflacionário e o regime cambial percebido pelos agentes afetam o grau de pass-through do câmbio para os preços ao consumidor. Observou-se uma redução no pass-through após a implementação do Real para os índices de preço ao consumidor (IPCA) ou com um componente de preços ao consumidor incorporado (IGP-DI) e uma redução ainda mais intensa após a adoção do regime de taxas de câmbio flutuantes em 1999. Já no que se refere à relação entre volatilidades, aplicou-se um modelo GARCH bivariado, trabalhando-se diretamente com os efeitos das volatilidades condicionais, aspecto ainda não abordado na literatura existente Foi encontrada uma relação semi-côncava entre as variâncias da taxa de câmbio e da inflação, diferente do estimado para séries financeiras e em linha com intuições sugeridas em outros estudos. Esta aplicação inova ao (i) estabelecer uma relação entre volatilidades da taxa de câmbio e da inflação, (ii) aplicar um modelo GARCH multivariado, usando variâncias condicionais para analisar a relação entre aquelas volatilidades e (iii) mostrar que os testes tradicionais realizados com séries de volatilidade construídas exogenamente são sensíveis ao critério escolhido para a construção de tais séries, ocultando características relevantes daquela relação. PALAVRAS-CHAVE: Taxas de câmbio, inflação, pass-through, volatilidade, Filtro de Kalman, GARCH

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho teve como objetivo comparar duas metodologias de alocação ótima de ativos, a metodologia clássica e a metodologia bayesiana. O modelo utilizado foi o de Meucci (2005). Foram realizados diversos exercícios empíricos de montagem de carteiras de ativos seguindo essas metodologias, utilizando para isso dados do mercado acionário brasileiro. Os resultados encontrados indicam uma superioridade de desempenho, tanto em termos de retorno quanto de volatilidade, da carteira bayesiana em relação à clássica e desta em relação ao índice de mercado. Ademais, o trabalho também compreende modificações na prior utilizada na estimação bayesiana.