344 resultados para Filtragem estocástica
Resumo:
Este documento é um texto didático destinado aos estudantes e pesquisadores em econometria e finanças. Baseia-se na experiência dos autores em cursos de pós-graduação nos dois lados do Atlântico: na ULB, Bruxelles e na FGV IEPGE, Rio. Não há a pretensão de rigor matemático, e nem a de cobrir todas as aplicações financeiras da teoria dos processos estocásticos. Esta primeira parte discute as martingales e o movimento browniano, os processos de difusão e a integral estocástica, o lema de Itô e o modelo de Black e Scholes.
Resumo:
Using the Pricing Equation, in a panel-data framework, we construct a novel consistent estimator of the stochastic discount factor (SDF) mimicking portfolio which relies on the fact that its logarithm is the ìcommon featureîin every asset return of the economy. Our estimator is a simple function of asset returns and does not depend on any parametric function representing preferences, making it suitable for testing di§erent preference speciÖcations or investigating intertemporal substitution puzzles.
Resumo:
Este estudo utiliza o modelo de fronteira estocástica paramétrica com dados em painel para estimação das funções de produção asso- ciadas aos grupos da indústria de transfomação brasileira no período de 1996-2005. Um ponto importante dessa técnica é a possibilidade de utilização de um conjunto de variáveis explicativas para o com- ponente de ine ciência. Com o objetivo de captar as dinâmicas da fronteira tecnológica e do nível de ine ciência foram introduzidos com- ponentes de tendência linear e quadrática. Veri cou-se para o período a ocorrência de aumento do nível de ine ciência técnica e de progresso tecnológico a taxas constantes. Observou-se ainda que o nível de ine - ciência relaciona-se negativamente com os salários médios do pessoal direta e indiretamente ligado à produção, com o percentual de tributos sobre a receita total ,com o grau de terceirização e com o percentual da receita total originário da atividade principal da indústria.
Resumo:
O lodo de suinocultura e o resíduo de serraria podem constituir problema ambiental quando dispostos no ambiente. A possibilidade de 36 tratamento via filtração foi o objetivo deste estudo. Foram avaliados o potencial de remoção de carga poluidora do lodo de suinocultura por filtros orgânicos de serragem (Pinus sp.), bem como o impacto do descarte no solo do lodo antes e após a filtragem. Utilizou-se um Argissolo e um Latossolo para o estudo da contaminação após a disposição de lodo de suinocultura e filtrado. O solo foi disposto por camadas em vasos de PVC e mantidos em condições naturais. Seis granulometrias de serragem foram utilizadas para estabelecer as vazões de trabalho (20, 25, 30, 40 e 50 mm) e avaliar o efeito do tempo de detenção na performance dos filtros. O maior tempo de detenção correspondeu ao menor tamanho de partícula de serragem. As vazões intermediárias, correspondentes ao tamanho intermediário de material filtrante, em dois filtros sucessivos (30 e 50 mm) com filtração diária, apresentaram melhor performance de filtragem. A filtração do lodo de suinocultura possibilitou redução da demanda química de oxigênio em 85 %, de sólidos totais em 95 % e de sólidos sedimentáveis em 100 %. A retenção de lodo de suinocultura na serragem proporcionou o enriquecimento do resíduo orgânico em nutrientes, bem como diminuição da relação C:N para aproximadamente 20:1. A percolação através de ambos os solos, de lodo de suinocultura antes e após filtragem através de filtro de serragem, determinou uma diminuição significativa de coliformes totais e fecais no percolado, mas dependente da contaminação do material aplicado. Foi observado também que, quanto maior o período sem precipitação pluviométrica após aplicação dos lodos no solo, menor a presença de patogênicos no percolado.
A evolução da produtividade total de fatores na economia brasileira: uma análise do período pós-real
Resumo:
A presente pesquisa aplica o modelo de fronteira estocástica de produção para as indústrias de transformação e da construção civil, assim como para o comércio e os serviços no Brasil, de forma a identificar as fontes de crescimento dos principais setores de atividade da economia brasileira, quais sejam: acumulação de capital físico, emprego da mão-de-obra, e produtividade total de fatores (PTF). Conforme Kumbhakar (2000), a evolução da PTF é decomposta em progresso técnico, mudanças da eficiência técnica, mudanças da eficiência alocativa e efeitos de escala. O estudo parte de dados de 1996 a 2000 das principais pesquisas anuais do IBGE realizadas com firmas: PAIC, PIA, PAC e PAS.
Resumo:
There is a lot of misunderstanding about derivative markets. Many people believe that they are a kind of casinos and have no utility to the investors. This work looks on the effects of options introduction in the Brazilian market, seeking for another benefit for this introduction: changes in the stocks risk level due to this introduction. Our results are the same found in the US and other markets: the options introduction reduces the stocks volatility. We also found that there is a slight indication that the volatility became more stochastic with this introducion.
Resumo:
Buscamos aferir ganhos na precificação de opções lançadas sobre a ação Telebrás PN, com a utilização de modelos auto regressivos de volatilidade· condicionada, cujos resultados foram comparados àqueles gerados pelos procedimentos numéricos de volatilidades históricas e implícitas. Nesta tarefa, a dinâmica do estudo levou ao estabelecimento de novos objetivos, que destacamos: a) identificação de modelos mais eficientes para filtragem da média do processo sobre retornos de Telebrás PN, que eventualmente pudessem otimizar o emprego dos modelos da classe ARCH; b) aferir anomalias de mercadodevidas a negociaçõesem dias específicos da semana; c) esclarecer influências exercidas pela sensibilidade dos preços das opções sobre a eficiência dos modelos de volatilidade condicionada, com vista a definir condições para o alcance de resultados práticos no campo da precificação de opções.
Resumo:
A utilização de reações nucleares ressonantes estreitas em baixas energias é uma ferramenta importante para a determinação de distribuições de elementos leves em filmes finos com resolução em profundidade subnanométrica. O objetivo do trabalho descrito ao longo da presente dissertação é aprimorar os métodos utilizados para a aquisição e interpretação das curvas experimentais. A obtenção das curvas experimentais consiste na detecção dos produtos das reações nucleares em função da energia das partículas incidentes, fazendo necessária variar a energia das partículas do feixe em passos discretos no intervalo desejado. Neste trabalho implementou-se um sistema automático para o controle e incremento da energia do feixe e monitoramento dos produtos das reações nucleares. Esse sistema de varredura automático de energia, além de aumentar consideravelmente a velocidade da medida, aumenta a qualidade das curvas experimentais obtidas. Para a interpretação das curvas de excitação experimentais, foi implementado um programa em linguagem de programação C, baseado na teoria estocástica, que permite simular numericamente as curvas de excitação. Para demonstrar a sua funcionalidade o método desenvolvido foi aplicado para verificar a estabilidade termodinâmica de filmes dielétricos ultrafinos depositados sobre silício, que foram posteriormente nitretados por plasma.
Resumo:
Neste trabalho é desenvolvido um modelo integrado para alocação ótima de ativos em bancos comerciais que incorpora restrições incertas de liquidez, atualmente ignoradas por modelos de RAROC e EVA. Se por um lado o lucro econômico considera o custo de oportunidade de ativos com risco, o que pode inclusive incorporar um prêmio de liquidez, por outro é negligenciado o risco de falha devido à falta de fundos suficientes para enfrentar demandas inesperadas de caixa, oriundas de corridas, saques excepcionais de linhas de crédito, ou perdas de crédito, de mercado, ou operacionais, o que pode ocorrer conjuntamente com episódios de racionamento de crédito interbancário ou crises sistêmicas de liquidez. Dada uma restrição de liquidez que pode incorporar tais fatores, há uma probabilidade Pf de que haja uma falha e a restrição de liquidez não seja obedecida, resultando em perda de valor para o banco, representada pela perda estocástica por falha Lf. O lucro econômico total, dada a possibilidade de perda devido à falta de liquidez, é então dinamicamente otimizado, resultando em um esquema de alocação de curto prazo capaz de integrar riscos de mercado, de crédito e operacionais na gestão de liquidez em bancos comerciais. Embora uma abordagem geral via simulação seja sugerida, também é apresentada uma solução fechada, válida sob certos pressupostos simplificadores, cuja otimização é discutida detalhadamente. Uma análise de fatos estilizados é apresentada a seguir, havendo indícios de que a tendência corrente de redução das taxas de juros no Brasil tem influenciado a queda no nível de ativos líquidos como proporção dos depósitos, aumentando a relevância dos modelos de gestão de liquidez, como o aqui proposto. Também foi feita uma implementação do modelo com dados de bancos brasileiros da qual estimou-se um ganho de cerca de 8,5% ao ano no retorno sobre o patrimônio líquido em relação à otimização que não leva em conta as perdas por falta de liquidez. Embora não seja possível estabelecer a significância do resultado em virtude das aproximações utilizadas, observou-se que a sensibilidade deste ganho não é alta em relação a variações nos parâmetros, que modificados de 20%, para mais e para menos, produziram ganhos entre 6,3% e 8,8% ao ano. Os ganhos chegam a 11,1% se o volume de recursos líquidos disponíveis para alocação for aumentado em quatro vezes e mesmo se a perda dada uma falha for reduzida de 8,6 vezes ainda há ganhos anuais de cerca de 0,5% no retorno sobre o patrimônio líquido, dando indícios empíricos de que o modelo possa ter impacto relevante na criação de valor em bancos.
Resumo:
Este trabalho trata dos problemas de otimização de minimização de volume com restrição de flexibilidade e freqüência natural e minimização de flexibilidade com restrição de volume. Os problemas são resolvidos para estruturas bidimensionais e tridimensionais. As equações diferenciais de equilíbrio são solucionadas de forma aproximada através do método dos elementos finitos, em um subespaço de dimensão finita. O método utilizado no estudo é o da otimização topológica, o qual consiste em encontrar dentro de um domínio pré-existente uma distribuição ideal de material. São avaliadas técnicas como programação linear e critério de ótimo. Em ambos os casos são utilizadas sensibilidades calculadas analiticamente. Para a otimização com restrição modal, problemas característicos como autovalores repetidos e normalização do autovetor são tratados. Ferramentas usadas na otimização topológica, como método da continuação, penalização e filtragem são discutidos. São abordados também problemas e características inerentes ao processo de otimização topológica, tais como instabilidades de tabuleiros, dependência de malha e sensibilidade da topologia a diferentes condições de contorno. Os resultados obtidos permitem avaliações referentes à otimização topológica (geometrias, ou seja, topologias resultantes) sob diferentes condições, utilizando-se as ferramentas discutidas nesse trabalho.
Resumo:
O estudo apresenta uma abordagem nova e alternativa dentro da literatura empírica que trata do crescimento econômico e da desigualdade da distribuição de renda. Ao se filiar ao arcabouço teórico e prático da Análise de Fronteira Estocástica ¿ AFS, o estudo analisa, inicialmente, os efeitos de evolução da produtividade total de fatores, PTF, e de suas componentes (eficiência técnica, progresso tecnológico, eficiência de escala e eficiência alocativa) sobre o crescimento econômico. Em específico, avalia em que medida as diferenças de padrões de desenvolvimento tecnológico dos países condicionam o crescimento. Após tratar da evolução da desigualdade da distribuição do produto por trabalhador de dois grupos de países, denominados desenvolvidos e em desenvolvimento, relaciona a medida de desigualdade L de Theil com as componentes da PTF e mostra que não há convergência das rendas per capita desses grupos de países porque o hiato tecnológico entre eles aumentou ao longo do tempo. Por fim, identifica o papel do progresso tecnológico na dinâmica da distribuição de renda dentro dos países, recuperando a idéia fundamental de Kuznets de que ele (o progresso tecnológico) é o motor do desenvolvimento, e conclui que avanços tecnológicos têm efeitos mais gerais sobre as economias: além de promover o crescimento econômico, também têm reflexos diretos sobre a produtividade do trabalho, e conseqüentemente sobre os salários, com resultados mais eqüitativos da distribuição da renda.
Resumo:
Quando as empresas decidem se devem ou não investir em determinado projeto de investimentos a longo prazo (horizonte de 5 a 10 anos), algumas metodologias alternativas ao Fluxo de Caixa Descontado (FCD) podem se tornar úteis tanto para confirmar a viabilidade do negócio como para indicar o melhor momento para iniciar o Empreendimento. As análises que levam em conta a incerteza dos fluxos de caixa futuros e flexibilidade na data de início do projeto podem ser construídos com a abordagem estocástica, usando metodologias como a solução de equações diferenciais que descrevem o movimento browniano. Sob determinadas condições, as oportunidades de investimentos em projetos podem ser tratados como se fossem opções reais de compra, sem data de vencimento, como no modelo proposto por McDonald-Siegel (1986), para a tomada de decisões e momento ótimo para o investimento. Este trabalho analisa a viabilidade de investimentos no mercado de telecomunicações usando modelos não determinísticos, onde a variável mais relevante é a dispersão dos retornos, ou seja, que a variância representa o risco associado a determinado empreendimento.
Resumo:
Há forte evidência que os retornos das séries financeiras apresentam caudas mais pesadas que as da distribuição normal, principalmente em mercados emergentes. No entanto, muitos modelos de risco utilizados pelas instituições financeiras baseiam-se em normalidade condicional ou não condicional, reduzindo a acurácia das estimativas. Os recentes avanços na Teoria de Valores Extremos permitem sua aplicação na modelagem de risco, como por exemplo, na estimação do Valor em Risco e do requerimento de capital. Este trabalho verifica a adequação de um procedimento proposto por McNeil e Frey [1999] para estimação do Valor em Risco e conseqüente requerimento de capital às principais séries financeiras de retornos do Brasil. Tal procedimento semi-paramétrico combina um modelo GARCH ajustado por pseudo máxima verossimilhança para estimação da volatilidade corrente com a Teoria de Valores Extremos para estimação das caudas da distribuição das inovações do modelo GARCH. O procedimento foi comparado através de backtestings com outros métodos mais comuns de estimação de VaR que desconsideram caudas pesadas das inovações ou a natureza estocástica da volatilidade. Concluiu-se que o procedimento proposto por McNeil e Frey [1999] mostrou melhores resultados, principalmente para eventos relacionados a movimentos negativos nos mercados . Futuros trabalhos consistirão no estudo de uma abordagem multivariada de grandes dimensões para estimação de VaR e requerimento de capital para carteiras de investimentos.
Resumo:
A enorme complexidade dos sistemas ecológicos tem sido uma grande barreira para a compreensão e o gerenciamento da problemática ambiental. Neste sentido a modelagem matemática é uma valiosa ferramenta, devido a sua capacidade de organizar as informações disponíveis sobre estes sistemas e de fazer previsões a seu respeito para diferentes condições. Desta forma a análise de sistemas naturais vem sendo abordada de diferentes maneiras, sendo que nas últimas décadas a teoria de ecossistemas expandiu-se e ramos específicos, que permitem seguir e predizer a evolução de ecossistemas, foram formulados. Um destes enfoques, conhecido como análise do fluxo de insumo-produto, pode ser utilizado para explicar o funcionamento e estrutura dos subsistemas de um ecossistema através da descrição dos fluxos de matéria ou energia. A análise do fluxo de insumo-produto pode ser representada através de dois modelos: o modelo determinístico ou o modelo estocástico, tendo sua origem em estudos de caso com o objetivo de analisar a econômica norte-americana, sendo uma extensão prática da teoria clássica de interdependência geral. Este trabalho faz uma abordagem sintética da evolução desta análise, avaliando dados teóricos e principalmente dados referentes à Lagoa Itapeva. A análise de input-output (determinística e estocástica) com o propósito de obter informações no que diz respeito aos fluxos (matéria e energia), é bastante simples; sendo que os modelos determinísticos se prestam melhor para traçar um panorama global e para obter projeções para as variáveis já os modelos estocásticos são mais complexos, mas provêem uma descrição mais acurada. Na Lagoa Itapeva os processos determinísticos demonstraram um baixo índice de ciclagem do carbono entre os três compartimentos em estudo e o fluxo preferencial na normalização corresponde ao compartimento dos produtores primários, isto decorre de não existir loop nos compartimentos em estudo e também não existir fluxos em dois sentidos. Em relação à avaliação estocástica foram observadas uma baixa relação no sentido espacial superfície-meio-fundo da lagoa, e uma boa distribuição espacial norte-centro-sul. Quanto à distribuição temporal, foi constatada uma baixa concordância entre os dados analisados e os dados reais quanto das análises realizadas em intervalos de tempo pequeno (horas) e uma boa concordância nas medidas feitas quando o intervalo foi significativo (meses). Também em relação à Lagoa Itapeva, foi verificado nas análises estocásticas, utilizando-se operadores espaciais, que como a dinâmica biológica nem sempre é linear, os organismos não podem acompanhar imediatamente e perfeitamente as mudanças do ambiente, resultando em tempos de residência de matéria significativamente baixo. Além da análise dos fluxos ligados a este ecossistema lagunar, foram desenvolvidas técnicas de correção e adaptação de dados referentes à amostragem ocorrida na Lagoa durante um ano de campanha. Assim, propõe-se uma nova perspectiva no uso desta metodologia de forma simples e de fácil manipulação matemática.
Resumo:
O objetivo principal deste trabalho é propor uma metodologia de classificação de imagens de sensoriamento remoto que integre a importância de atributos de textura na seleção de feições, através da utilização de freqüências espaciais de cada classe textural e sua direção, com a eficiência das redes neurais artificiais para classificá-las. O processo é composto por uma etapa de filtragem baseada nos filtros de Gabor, seguida de uma fase de classificação através de uma rede neural Multi-Layer Perceptron com algoritmo BackPropagation. A partir da transformada de Fourier são estimados os parâmetros a serem utilizados na constituição dos filtros de Gabor, adequados às freqüências espaciais associadas a cada classe presente na imagem a ser classificada. Desta forma, cada filtro gera uma imagem filtrada. O conjunto de filtros determina um conjunto de imagens filtradas (canais texturais). A classificação pixel a pixel é realizada pela rede neural onde cada pixel é definido por um vetor de dimensionalidade igual ao número de filtros do conjunto. O processo de classificação através da rede neural Multi-Layer Perceptron foi realizado pelo método de classificação supervisionada. A metodologia de classificação de imagens de sensoriamento remoto proposta neste trabalho foi testada em imagens sintética e real de dimensões 256 x 256 pixels. A análise dos resultados obtidos é apresentada sob a forma de uma Matriz de Erros, juntamente com a discussão dos mesmos.