730 resultados para estimação viesada
Resumo:
Este trabalho tem como objetivo construir estruturas a termo da taxa de juros de títulos públicos brasileiros através do uso de modelos estatísticos paramétricos. Estudou-se a capacidade de ajuste de modelos distintos do tipo “splines” e “exponenciais” através de testes de apreçamento de diferentes títulos públicos (prefixados, e indexados à inflação), sob métricas que incluem análises dentro e fora da amostra utilizada no processo de estimação dos modelos. Identificamos que os modelos baseados em funções exponenciais se sobressaem nos testes e parecem ser os mais adequados para construção destas curvas de juros de títulos públicos brasileiros. Vislumbramos os resultados deste estudo como um primeiro passo para a criação de uma importante ferramenta de auxílio à regulação dos mercados de títulos públicos brasileiros, pois a construção de curvas de juros adequadas possibilita uma marcação a mercado de cada título coerente com o preço dos demais, oferecendo melhora na capacidade de se estimar regiões de confiança para preços futuros destes títulos. Palavras-Chave: taxa de juros – estrutura a termo da taxa de juros – renda fixa – títulos públicos.
Resumo:
O tema central deste trabalho é a avaliação do valor da opção real de espera do investimento em uma Unidade Separadora de Propeno, em comparação com uma análise estática de Valor Presente Líquido. Para isso, foi exposta a teoria de opções reais, os processos estocásticos para a estimação das suas principais variáveis de incerteza (preço de produto e insumo), bem como a descrição das ferramentas de simulação a serem utilizadas. Com os instrumentos expostos, pretendemos demonstrar aos responsáveis por projetos de investimento que as incertezas podem ser medidas, levando a maior flexibilidade na tomada de decisões. Os resultados obtidos apontam para o exercício imediato da opção pela abordagem de ativos contingentes e resultados divergentes na análise de ativos contingentes em função do diferencial de preços, em função da taxa de dividendos adotada. A influência dos valores da volatilidade e da taxa de dividendos nos resultados também foi avaliada, levando à conclusão de que o primeiro gera impactos maiores no valor da opção do que o segundo.
Resumo:
Os modelos computacionais SATURN e DRACULA avaliam o tráfego através de diferentes fundamentações teóricas. O SATURN é um modelo macroscópico de alocação de tráfego que incorpora uma estrutura mesoscópica de simulação de interseções. O DRACULA é um modelo microscópico de simulação de tráfego: reproduz a progressão dos veículos através da rede, representando cada entidade individualmente. Ambos os modelos foram desenvolvidos no ITS – Institute for Transport Studies – da Universidade de Leeds, e permitem a troca de informações, podendo ser aplicados em conjunto. O presente trabalho de pesquisa compara as estruturas de simulação do SATURN e do DRACULA. O estudo confronta as fundamentações teóricas dos modelos, relacionando-as com a aplicação prática. São avaliados os dados de entrada, os parâmetros de saída, e os processos particulares de estimação de parâmetros de cada modelo. Através de análises de sensibilidade, avalia-se o impacto da variação de dados de entrada nos parâmetros de saída. Em um estudo de caso, avalia-se a aplicação conjunta dos modelos, ao replicarem o mesmo cenário. O estudo identifica divergências e afinidades na conceituação e no tratamento de parâmetros de entrada e saída tais como dados de descrição de rede e demanda, atrasos, velocidades, tempos de viagem, e capacidade viária. Por fim, o estudo propõe recomendações sobre a implementação prática dos modelos, especialmente quando utilizados em conjunto.
Resumo:
A modelagem matemática é uma ferramenta que apresenta diversas vantagens no estudo de processos industriais como, por exemplo, entender e desenvolver tecnologias, avaliar o impacto de variáveis nas propriedades do produto, estudos de redução de custos de produção e de impacto ambiental. O objetivo deste trabalho é desenvolver e validar um modelo matemático para um reator de bancada de polimerização em lama de eteno, enfatizando o desenvolvimento do modelo cinético. O modelo do reator contemplou: 1) modelo de troca térmica; 2) modelo termodinâmico; 3) modelo de transferência de massa gás-líquido e 4)modelo cinético. Para uma melhor predição do modelo foi realizada a estimação de alguns dos seus parâmetros conforme uma metodologia que compreendeu a análise de sensibilidade paramétrica e das variáveis de entrada do modelo e os efeitos de um planejamento de experimentos para a geração dos dados experimentais. A metodologia utilizada mostrou-se eficiente na avaliação do modelo quanto as suas características de predição, ajudando na identificação de possíveis falhas e evidenciando as vantagens de uma adequada metodologia experimental. Uma etapa determinante para o processo de estimação dos parâmetros é a escolha dos dados de saída a utilizar para a estimativa de determinado parâmetro. A modelagem do reator experimental mostrou-se satisfatória em todos os aspectos do processo (troca térmica, cinética, termodinâmica e transferência de massa), pois o modelo prediz com precisão as características encontradas nos experimentos. Assim, este pode ser utilizado para avaliar o mecanismo reacional envolvido de forma a aproximar-se das reais características do processo.
Resumo:
As contribuições deste artigo são duas. A primeira, um método de avaliação de regressões não lineares para a previsão de retornos intradiários de ações no mercado brasileiro é discutido e aplicado, com o objetivo de maximizar o retorno de um portfólio simulado de compras e vendas. A segunda, regressões usando funções-núcleo associadas ao particionamento da amostra por vizinhos mais próximos são realizadas. Algumas variáveis independentes utilizadas são indicadores técnicos, cujos parâmetros são otimizados dentro da amostra de estimação. Os resultados alcançados são positivos e superam, em uma análise quartil a quartil, os resultados produzidos por um modelo benchmark de autorregressão linear
Resumo:
Neste artigo estudamos a relação entre a taxa de juros e o hiato do produto no Brasil através da estimação de modelos Novo-Keynesianos. Para tanto, estimamos os modelos por três métodos: (1) método generalizados dos momentos, (2) máxima verossimilhança utilizando dados de expectativa divulgados pelo Banco Central do Brasil e (3) máxima verossimilhança utilizando variáveis de expectativa estimadas por um modelo VAR. As conclusões são altamente dependentes do método de estimação. Ao utilizar (1), os resultados indicam uma relação espúria entre a taxa de juros real e o hiato. Entretanto, as conclusões originadas de (2) indicam que somente o hiato defasado seria uma variável relevante para a nossa especificação. Ao estimar o modelo por (3), as estimativas corroboram os resultados obtidos com o método generalizados dos momentos.
Resumo:
O sistema bancário consiste em um setor da economia muito regulado, e uma das medidas impostas pelas autoridades supervisoras como forma de controle é exigência mínima de capital. Uma das formas encontradas para oferecer maior proteção aos clientes e ao mercado financeiro como um todo é a imposição aos bancos em manterem níveis mínimos de capital vinculados aos riscos a que estão expostos, medida que serve como recurso para desestimular a exposição a riscos não usuais. O capital bancário, portanto, constitui-se em instrumento de proteção contra o risco de quebra de uma instituição, e, desde a adesão ao Acordo Internacional da Basiléia, com vigência a partir de 1995, os bancos brasileiros têm de manter patrimônio líquido compatível com o grau de risco da estrutura de seus ativos. O presente trabalho explora a existência e o grau de relação entre exigência mínima de capital ponderado pela exposição de risco dos ativos e a rentabilidade dos bancos brasileiros, a fim de contribuir para uma análise da situação atual das instituições em relação às normas vigentes sobre requerimento de capital. Trata-se de pesquisa empírica, a qual procura levantar indicações exploratórias, evidenciadas por graus de correlações, mensurados através de estimação com dados em painel. A literatura internacional que versa sobre os impactos da existência de regulação de capital nos bancos demonstra-se divergente e, em alguns casos, não–conclusiva. Os resultados encontrados neste trabalho, com base em amostra composta por bancos brasileiros, não evidenciam relações significativas entre indicador de rentabilidade e indicador de capital ponderado pelos riscos, conhecido no Brasil como Índice de Basiléia. Algumas considerações são sugeridas para justificarem os resultados alcançados, tais como a preferência das instituições por aplicações em ativos de menor risco, como títulos públicos, a arbitragem de capital, proporcionada, principalmente, pelo grau de risco imposto às operações ativas, e a facilidade de enquadrarem-se aos limites mínimos de capital adotados no Brasil, evidenciada pelas altas margens de folga observadas.
Resumo:
A adsorção em leito fixo de carvão ativado granular é uma das mais importantes alternativas para a remoção de compostos orgânicos voláteis em efluentes aquosos, em concentrações baixas. O objetivo deste trabalho é colocar em funcionamento uma unidade piloto de adsorção e desenvolver uma metodologia para avaliar o comportamento de adsorventes nesta planta como a usada no projeto de unidades de adsorção de leito fixo. Esta planta piloto possui uma coluna de 20 mm de diâmetro interno, encamisada. Ela é equipada com espectrofotômetro UV on-line, que permite a medida da concentração de componentes orgânicos voláteis na corrente de efluente. Também, possui módulos para a aquisição de dados de temperatura, vazão e pressão diferencial. Nessa planta, foram realizados experimentos, à temperatura ambiente, para aquisição de curvas de ruptura experimentais da adsorção de tolueno de uma corrente aquosa, em um leito fixo de carvão ativado. O leito era composto por um carvão ativado granular (8 x 12 mesh). Diferentes alturas de leito (5 e 10 cm) e vazões ( 0,8 e 1,6 L.h-1) foram testados, mantendo a concentração de tolueno na alimentação em aproximadamente 50 ppm. Concomitantemente, foram realizados testes para a caracterização do adsorvente, obtendo-se 15,4 % de conteúdo de umidade e 8,7 % de cinzas, massa específica bulk de 0,5 g.mL-1, massa específica real de 1,72 g.mL-1 e 681 m2.g-1 de área superficial A estimação da difusividade mássica e do coeficiente de transferência de massa referente à fase sólida foram obtidos através de dados de testes cinéticos, obtendo-se, respectivamente, os valores médios de 6,1 cm2.h-1 e 0,0162 cm.h-1. As alturas das zonas de transferência de massa obtidas para a vazão de 0,8 L.h-1 aumentaram com o aumento da altura do leito, indicando comportamento de padrões proporcionais. Além disso, analisaram-se dados preliminares de pressão diferencial no leito, que indicam que ela aumentou enquanto havia adsorção. A metodologia desenvolvida poderá ser aplicada para estudar a adsorção com outros pares adsorvente/adsorvato.
Resumo:
Esta dissertação apresenta um método para calibração automática de um par de câmeras que realiza um movimento desconhecido. O processo de calibração aqui descrito é baseado inteiramente na rigidez da cena observada e na invariabilidade dos parâmetros intrínsecos das câmeras durante o movimento. Não há a necessidade de nenhum artefato de calibração especial. Este trabalho mostra uma abordagem completa, desde o processo de casamento de pontos até a estimação dos parâmetros da câmera. Não é feita nenhuma suposição sobre o movimento das câmeras, tampouco sobre a disposição da cena 3D. Exemplos de aplicações deste método estão nos experimentos onde a calibração das câmeras precisa ser realizada remotamente, dificultando o posicionamento de artefatos de calibração na cena alvo, como é o caso para robôs de exploração interplanetária.
Resumo:
Este artigo examina a hipótese de convergência de renda per capita entre os estados brasileiros no período de 1970 a 2005. Comentam-se os resultados encontrados para sigmaconvergência medida através de indicadores de desigualdade, como o índice de Theil e coeficiente de variação. Para testar a existência ou não de convergência aplica-se além da metodologia tradicional de beta convergência baseada em regressões de cross-section, a técnica de estimação de GMM em primeira diferença para painel dinâmico. Além disso, com a finalidade de obter a distribuição de renda de longo prazo da economia, utiliza-se a metodologia de cadeia de Markov proposta por Quah (1993). A conclusão do estudo é de que os estados brasileiros já estão muito próximos ao seu steady-state. A velocidade de convergência quando se utiliza o método de GMM eleva-se para 15%, enquanto os resultados obtidos para estudos de cross-section giram por volta de 1%.
Resumo:
Este trabalho propõe maneiras alternativas para a estimação consistente de uma medida abstrata, crucial para o estudo de decisões intertemporais, o qual é central a grande parte dos estudos em macroeconomia e finanças: o Fator Estocástico de Descontos (SDF, sigla em Inglês). Pelo emprego da Equação de Apreçamento constrói-se um inédito estimador consistente do SDF que depende do fato de que seu logaritmo é comum a todos os ativos de uma economia. O estimador resultante é muito simples de se calcular, não depende de fortes hipóteses econômicas, é adequado ao teste de diversas especificações de preferência e para a investigação de paradoxos de substituição intertemporal, e pode ser usado como base para a construção de um estimador para a taxa livre de risco. Alternativas para a estratégia de identificação são aplicadas e um paralelo entre elas e estratégias de outras metodologias é traçado. Adicionando estrutura ao ambiente inicial, são apresentadas duas situações onde a distribuição assintótica pode ser derivada. Finalmente, as metodologias propostas são aplicadas a conjuntos de dados dos EUA e do Brasil. Especificações de preferência usualmente empregadas na literatura, bem como uma classe de preferências dependentes do estado, são testadas. Os resultados são particularmente interessantes para a economia americana. A aplicação de teste formais não rejeita especificações de preferências comuns na literatura e estimativas para o coeficiente relativo de aversão ao risco se encontram entre 1 e 2, e são estatisticamente indistinguíveis de 1. Adicionalmente, para a classe de preferência s dependentes do estado, trajetórias altamente dinâmicas são estimadas para a tal coeficiente, as trajetórias são confinadas ao intervalo [1,15, 2,05] e se rejeita a hipótese de uma trajetória constante.
Resumo:
Este estudo propõe um método alternativo para a previsão de demanda de energia elétrica, através do desenvolvimento de um modelo de estimação baseado em redes neurais artificiais. Tal método ainda é pouco usado na estimativa de demanda de energia elétrica, mas tem se mostrado promissor na resolução de problemas que envolvem sistemas de potência. Aqui são destacados os principais fatores que devem pautar a modelagem de um sistema baseada em redes neurais artificiais, que são: seleção das variáveis de entrada; quantidade de variáveis; arquitetura da rede; treinamento; previsão da saída. O modelo ora apresentado foi desenvolvido a partir de uma amostra de 125 municípios do Estado do Rio Grande do Sul (Brasil), nos anos de 1999 a 2002. Como variáveis de entrada, foram selecionados a temperatura ambiente (média e desvio-padrão anual), a umidade relativa do ar (média e desvio-padrão anual), o PIB anual e a população anual de cada município incluído na amostra. Para validar a proposta apresentada, são mostrados resultados baseados nas simulações com o modelo proposto.
Resumo:
Nas indústrias de processo, algumas variáveis como as composições de topo de colunas de destilação são quantificadas através de análises laboratoriais e ou de analisadores em linha. Este tipo de controle apresenta algumas limitações tais como custos de manutenção e o tempo de amostragem (em geral análises laboratoriais ocorrem de 1 a 3 vezes ao dia). Para melhoria destes métodos, as variáveis podem ser continuamente estimadas a partir de sua relação com as variáveis medidas diretamente no processo. Através de um algoritmo matemático, um analisador virtual de propriedades pode ser construído, sendo necessário para o seu desenvolvimento um modelo simplificado do processo. Este trabalho teve como objetivo a construção de dois analisadores virtuais para estimação das composições de topo de duas colunas fracionadoras de tolueno presentes em uma indústria petroquímica. Para tal, estudou-se as metodologias existentes para construção de analisadores voltados para aplicações em colunas de destilação. O desenvolvimento de analisadores virtuais tem como base três etapas: seleção de variáveis secundárias, construção de modelos e correção/adaptação de modelos. Tais etapas, baseadas principalmente em métodos estatísticos, foram estudadas e as técnicas que melhor se adaptaram ao caso em questão foram empregadas com resultados satisfatórios. Realizaram-se também estudos comparativos entre modelos estacionários e dinâmicos e modelos construídos a partir de dados de simulação e de processo. As simulações foram conduzidas nos softwares Aspen PlusÒ e Aspen DynamicsÒ e o software usado para implementação dos analisadores na indústria foi o Aspen IQÒ.
Resumo:
As teorias sobre risco sistemático iniciadas em 1932 com Knight sempre buscaram determinar variáveis que pudessem explicar e determinar o nível de risco sistemático de um sistema financeiro. Neste sentido, este estudo propôs-se a investigar as variáveis que possam determinar o nível de risco sistemático de um país, utilizando um modelo de mercado para estimação de betas e regressões com dados em painel sobre uma base de dados de janeiro de 1997 a setembro de 2008 para 40 países. Utilizou-se como variáveis, o PIB, inflação, câmbio, taxa real de juros e concentração de mercado. Verificou-se que o modelo apresenta indícios que as variáveis utilizadas podem ser consideradas como determinantes do risco sistemático e ainda, que o nível de concentração de um mercado acionário pode determinar o nível de risco sistemático de um país.
Resumo:
Analisa a relevância e a validade dos modelos específicos para avaliação de bancos encontrados na literatura de finanças. Partindo do objetivo de maximização do valor para o acionista, discute a crescente preocupação dos bancos e dos órgãos reguladores com a estimação e a divulgação do valor de mercado dos ativos e passivos dos bancos. Apresenta os métodos tradicionais de avaliação de empresas e analisa, com mais detalhe, o modelo de fluxo de caixa descontado. Analisa as justificativas encontradas na literatura para a utilização de modelos específicos para avaliação de bancos, assim como os principais aspectos que devem ser considerados nesses modelos. Descreve os modelos específicos para avaliação de bancos encontrados na literatura de finanças e os analisa, usando como parâmetro os principais aspectos que devem ser considerados nesses modelos.