970 resultados para Estimação de parâmetros


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta, dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade [FUK 90] tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas de regularização da matriz covariância. Deste modo, técnicas de regularização para a estimação da matriz covariância das classes, tornam-se um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo, é feita uma contextualização em sensoriamento remoto, descrito o sistema sensor AVIRIS, os princípios da análise discriminante linear (LDA), quadrática (QDA) e regularizada (RDA) são apresentados, bem como os experimentos práticos dos métodos, usando dados reais do sensor. Os resultados mostram que, com um número limitado de amostras de treinamento, as técnicas de regularização da matriz covariância foram eficientes em reduzir o Efeito de Hughes. Quanto à acurácia, em alguns casos o modelo quadrático continua sendo o melhor, apesar do Efeito de Hughes, e em outros casos o método de regularização é superior, além de suavizar este efeito. Esta dissertação está organizada da seguinte maneira: No primeiro capítulo é feita uma introdução aos temas: sensoriamento remoto (radiação eletromagnética, espectro eletromagnético, bandas espectrais, assinatura espectral), são também descritos os conceitos, funcionamento do sensor hiperespectral AVIRIS, e os conceitos básicos de reconhecimento de padrões e da abordagem estatística. No segundo capítulo, é feita uma revisão bibliográfica sobre os problemas associados à dimensionalidade dos dados, à descrição das técnicas paramétricas citadas anteriormente, aos métodos de QDA, LDA e RDA, e testes realizados com outros tipos de dados e seus resultados.O terceiro capítulo versa sobre a metodologia que será utilizada nos dados hiperespectrais disponíveis. O quarto capítulo apresenta os testes e experimentos da Análise Discriminante Regularizada (RDA) em imagens hiperespectrais obtidos pelo sensor AVIRIS. No quinto capítulo são apresentados as conclusões e análise final. A contribuição científica deste estudo, relaciona-se à utilização de métodos de regularização da matriz covariância, originalmente propostos por Friedman [FRI 89] para classificação de dados em alta dimensionalidade (dados sintéticos, dados de enologia), para o caso especifico de dados de sensoriamento remoto em alta dimensionalidade (imagens hiperespectrais). A conclusão principal desta dissertação é que o método RDA é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta tese apresenta o desenvolvimento conceitual, estimação de parâmetros e aplicação empírica de um Modelo de Risco de Portfólio cujo objetivo é realizar previsões da distribuição estatística da perda de crédito em carteiras de crédito ao consumidor. O modelo proposto é adaptado às características do crédito ao consumidor e ao mercado brasileiro, podendo ser aplicado com dados atualmente disponíveis para as Instituições Financeiras no mercado brasileiro. São realizados testes de avaliação da performance de previsão do modelo e uma comparação empírica com resultados da aplicação do Modelo CreditRisk+.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Com o crescente uso das teorias e métodos vindos das áreas de economia regional e urbana, economia e econometria espacial na fronteira entre as áreas de economia e políticas públicas, estudar esse arcabouço teórico e metodológico torna-se relevante no campo da análise de políticas públicas. O objetivo geral dessa dissertação é discutir de modo crítico aspectos da literatura de econometria espacial e sua aplicabilidade, com especial foco na comparação entre os diferentes modelos e matrizes de ponderação espacial. Esse estudo procura analisar diferentes formas de medidas que permitem a construção de uma matriz de ponderação espacial, bem como testar por meio de simulação experimental e em uma aplicação empírica a robustez de algumas dessas matrizes e de diferentes modelos. Dadas as indicações da literatura e as evidências mostradas nessa dissertação, a estratégia mais confiável para a busca de um modelo parece ser utilizar as estimativas dos modelos, em conjunto com as estatísticas de Moran, para identificar presença de algum tipo de correlação espacial, e do teste LM da variável dependente, para indicar esse tipo de correlação especificamente. Observa-se que, de modo geral, não há muita diferença em termos de esperança dos parâmetros não espaciais, quando comparadas a estimações tradicionais com as que utilizam as técnicas espaciais. Com isso, a indicação que se pode fazer é que o uso das ferramentas de econometria espacial deve ser aplicado quando o interesse da análise é justamente na estimação dos parâmetros de correlação espacial. Comparando o uso da matriz de contigüidade no lugar da matriz de distâncias, é possível notar que a matriz de contigüidade não é, de forma geral, uma boa substituição para a matriz de distâncias. Ela capta parcialmente o efeito de rho e lambda, além de captar erroneamente lambda, quando este inexiste.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A identificação de modelos é determinante no sucesso das modernas técnicas de controle avançado de processos. Um modelo para o sistema pode ser obtido através de modelagem rigorosa, baseada em equações governantes do sistema ou através da modelagem empírica e estimação de parâmetros. Embora mais rápida e fácil, a modelagem empírica necessita de alguns testes de identificação nos quais as variáveis manipuladas são variadas de modo que resultem em variações nas variáveis controladas. Os testes de identificação podem apresentar custos muito elevados tendo em vista que o sistema pode sair de seu ponto normal de operação, gerando produtos com folga de especificação. Este fato ocorre porque usualmente as perturbações aplicadas nas variáveis manipuladas nas indústrias de processos são independentes umas das outras, aumentando a duração do teste de identificação. Desta forma, neste trabalho foi desenvolvida uma nova metodologia de projeto de perturbações simultâneas para a identificação de modelos dinâmicos baseada na direcionalidade do sistema, com o objetivo de fornecer dados mais ricos para se capturar corretamente o comportamento multivariável do sistema e manter o processo no ponto de operação normal. As perturbações são projetadas conforme as características de um modelo simplificado do processo, ou pré-modelo. Este modelo inicial é obtido essencialmente de dados históricos de planta, selecionados através de uma sistemática análise de correlação desenvolvida neste trabalho A metodologia proposta é composta de duas partes: a primeira parte diz respeito à análise dos dados históricos de planta para obtenção de informações prelimirares as quais são utilizadas no planejamento de perturbações, tais como amplitude do ruído de medida, correlação entre as variáveis de processo, constante de tempo do sistema e matriz de ganhos. E a segunda parte consiste no cálculo da amplitude das perturbações baseado nos resultados da primeira etapa do planejamento. Para sistemas mal-condicionados verificou-se que as perturbações planejadas pela metodologia removem menos a planta de seu ponto de operação gerando resultados mais consistentes em relação às perturbações tradicionais. Já para sistemas bem-condicionados, os resultados são semelhantes. A metodologia foi aplicada em uma unidade piloto experimental e numa unidade de destilação da PETROBRAS, cujos resultados apontam pouca remoção dos sistemas do ponto de operação e modelos consistentes. A validação dos modelos também foi contemplada na dissertação, uma vez que foi proposto um novo critério de validação que considera a derivada dos dados de planta e a do modelo e não apenas os dados de planta e os dados da simulação das saídas do modelo.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Os recentes avanços na tecnologia de sensores tem disponibilizado imagens em alta dimensionalidade para fins de sensoriamento Remoto. Análise e interpretação dos dados provenientes desta nova geração de sensores apresenta novas possibilidades e também novos desafios. Neste contexto,um dos maiores desafios consiste na estimação dos parâmetros em um classificador estatístico utilizando-se um número limitado de amostras de treinamento.Neste estudo,propõe-se uma nova metodologia de extração de feições para a redução da dimensionalidadedos dados em imagens hiperespectrais. Essa metodologia proposta é de fácil implementação e também eficiente do ponto de vista computacional.A hipótese básica consiste em assumir que a curva de resposta espectral do pixel, definida no espaço espectral, pelos contadores digitais (CD's) das bandas espectrais disponíveis, pode ser substituída por um número menor de estatísticas, descrevendo as principais característicasda resposta espectral dos pixels. Espera-se que este procedimento possa ser realizado sem uma perda significativa de informação. Os CD's em cada banda espectral são utilizados para o cálculo de um número reduzido de estatísticas que os substituirão no classificador. Propõe-se que toda a curva seja particionada em segmentos, cada segmento sendo então representado pela respectiva média e variância dos CD's. Propõem-se três algoritmos para segmentação da curva de resposta espectral dos pixels. O primeiro utiliza um procedimento muito simples. Utilizam-se segmentos de comprimento constante, isto é, não se faz nenhuma tentativa para ajustar o comprimento de cada segmento às características da curva espectral considerada. Os outros dois implementam um método que permite comprimentos variáveis para cada segmento,onde o comprimentodos segmentos ao longo da curva de resposta espectral é ajustado seqüencialmente.Um inconveniente neste procedimento está ligado ao fato de que uma vez selecionadauma partição, esta não pode ser alterada, tornando os algoritmos sub-ótimos. Realizam-se experimentos com um classificador paramétrico utilizando-se uma imagem do sensor AVIRIS. Obtiveram-se resultados animadores em termos de acurácia da classificação,sugerindo a eficácia dos algoritmos propostos.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A necessidade de maior generalização e aplicação do modelo da curva de progresso da produção às indústrias "mão-de-obra intensivas" vem sendo ressaltada há muitos anos na literatura. Até hoje, entretanto, as contribuições empíricas ao estudo da matéria emanaram, predominantemente, da indústria aeroespacial cabendo às demais umas poucas tentativas de extensão do modelo mencionado. A forma apropriada do modelo tem sido também debatida. A questão do platô na curva - término ou estancamento do progresso constitui um problema sobre o qual existe muita controvérsia e quase nenhuma pesquisa empírica. A estimação dos parâmetros da função de progresso da produção, para diferentes produtos e atividades, tem sido tentada por um escasso número de pesquisadores, desconhecendo o auto a existência de pesquisas sobre a função de progresso da produção no caso de indústrias brasileiras. Finalmente, a matéria toda carece de novas hipóteses e de melhor sistematização teórica. Ao ampliar e aprofundar as questões mencionadas, o trabalho teórico e de pesquisa, ora concluído, contribuirá, possivelmente, para esclarecer determinados aspectos da função de progresso da produção, ainda não abordados na literatura especialização.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

No artigo serão investigadas as expectativas e assimetrias de informação que os agentes possuem a respeito de um determinado ativo financeiro, no nosso caso as ações preferenciais da Petrobrás. Para isso utilizaremos duas metodologias. A primeira é baseada em Bates (1991) onde através da estimação de parâmetros implícitos nos prêmios de opções é possível extrair informação sobre vários momentos da distribuição de probabilidade do ativo objeto referente à opção. A outra metodologia segue Easley et al (1996) e através da análise dos microdados dos preços de ativos fornece uma metodologia para inferir acerca da assimetria de informação entre os agentes, ou seja, se existem pessoas com um nível de informação maior do que outras negociando um ativo. Os resultados obtidos mostram que a metodologia discutida em Bates (1991) foi eficiente para captar a expectativa de mercado dos agentes, principalmente na reversão da crise do subprime em 2008 e que as ações da Petrobrás apresentam baixos valores para probabilidade da negociação ser com informação gerando um menor custo aos agentes que chegam ao mercado menos informados.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O trabalho testa o poder de previsão da volatilidade futura, de cinco modelos : um modelo ingênuo, do tipo martingale, o modelo sugerido pelo JPMorgan em seu RiskMetrics™, o modelo GARCH-Generalized Autoregressive Conditional Heteroscedasticity, o modelo da volatilidade implícita e combinações de Risk:MetricsTM com volatilidade implícita e de GARCH com volatilidade implícita. A série estudada é a volatilidade para vinte e cinco dias, dos retornos diários do contrato futuro de Ibovespa, negociado na BM&F - Bolsa de Mercadorias e Futuros. Particularidades brasileiras são introduzidas na. estimação dos parâmetros do modelo GARCH. O poder de previsão é testado com medidas estatísticas, envolvendo equações de perdas (loss functions) simétricas e assimétricas, e com uma medida econômica, dada pelo lucro obtido a partir da simulação da realização de operações hedgeadas, sugeridas pelas previsões de volatilidade. Tanto com base nas medidas estatísticas como na medida econômica, o modelo GARCH emerge como o de melhor desempenho. Com base nas medidas estatísticas, esse modelo é particularmente melhor em período de mais alta volatilidade. Com base na medida econômica, contudo, o lucro obtido não é estatisticamente diferente de zero, indicando eficiência do mercado de opções de compra do contrato futuro de Ibovespa, negociado na mesmaBM&F.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho tem como objetivo comparar diferentes métodos de previsão de necessidades de caixa no overnight, que assegurem que a liquidez de um produto financeiro específico – neste caso, o Call Deposits (Depósito à Vista, em moeda estrangeira) – seja suficiente para cobrir os riscos de liquidez de uma instituição financeira e, em contrapartida, otimizem o lucro oriundo do saldo restante que ultrapasse o valor de saída destes modelos. Para isso, o modelo de Fluxo de Caixa de Schmaltz (2009), que segrega os diferentes componentes do caixa (determinísticos e estocásticos), será utilizado para determinar as necessidades de caixa e, através do método de Monte Carlo para a previsão de diferentes caminhos, chegamos a um valor médio de saldo para ser utilizado no overnight. Como comparativo, será utilizado o modelo determinístico de Ringbom et al (2004), que oferece a “Taxa de Reserva de Maximização de Lucro”, para, enfim, compará-los historicamente, entre Jan/2009 e Dez/2013, a fim de concluirmos qual dos modelos de reservas de caixa se mostra mais satisfatório. A base de dados utilizada replica os saldos e saques de um banco comercial, para o produto financeiro em questão, e, também, é utilizada para a estimação dos parâmetros.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A tradicional representação da estrutura a termo das taxas de juros em três fatores latentes (nível, inclinação e curvatura) teve sua formulação original desenvolvida por Charles R. Nelson e Andrew F. Siegel em 1987. Desde então, diversas aplicações vêm sendo desenvolvidas por acadêmicos e profissionais de mercado tendo como base esta classe de modelos, sobretudo com a intenção de antecipar movimentos nas curvas de juros. Ao mesmo tempo, estudos recentes como os de Diebold, Piazzesi e Rudebusch (2010), Diebold, Rudebusch e Aruoba (2006), Pooter, Ravazallo e van Dijk (2010) e Li, Niu e Zeng (2012) sugerem que a incorporação de informação macroeconômica aos modelos da ETTJ pode proporcionar um maior poder preditivo. Neste trabalho, a versão dinâmica do modelo Nelson-Siegel, conforme proposta por Diebold e Li (2006), foi comparada a um modelo análogo, em que são incluídas variáveis exógenas macroeconômicas. Em paralelo, foram testados dois métodos diferentes para a estimação dos parâmetros: a tradicional abordagem em dois passos (Two-Step DNS), e a estimação com o Filtro de Kalman Estendido, que permite que os parâmetros sejam estimados recursivamente, a cada vez que uma nova informação é adicionada ao sistema. Em relação aos modelos testados, os resultados encontrados mostram-se pouco conclusivos, apontando uma melhora apenas marginal nas estimativas dentro e fora da amostra quando as variáveis exógenas são incluídas. Já a utilização do Filtro de Kalman Estendido mostrou resultados mais consistentes quando comparados ao método em dois passos para praticamente todos os horizontes de tempo estudados.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Medimos a validade da paridade descoberta de juros – PDJ - para o mercado brasileiro no período de janeiro de 2010 a julho de 2014. Testamos a equação clássica da PDJ usando o Método dos Mínimos Quadrados Ordinários. Após a estimação dos parâmetros, aplicamos o Teste de Wald e verificamos que a paridade descoberta de juros não foi validada. Estendemos a equação tradicional da PDJ para uma especificação alternativa que captura medidas de risco Brasil e de alteração na liquidez internacional. Especificamente, acrescentamos três variáveis de controle: duas variáveis dummy que capturam condições de liquidez externa e o índice de commoditie CRB, que captura o risco Brasil. Com a especificação alternativa, a hipótese de que os retornos das taxas de juros em Real, dolarizadas, são iguais aos retornos da taxas de juros contratadas em dólares, ambas sujeitas ao risco Brasil, não foi rejeitada. Em complemento à análise das taxas representativas do mercado brasileiro, procurou-se avaliar a predominância da PDJ nas operações de swap cambial realizadas pela Vale S.A.. Para tanto, a série de taxa de juros em dólares do mercado brasileiro foi substituída pela taxa em dólar dos swaps contratados pela Vale. Os resultados encontrados demonstram que, quando comparado ao comportamento do mercado, as taxas em dólares da VALE são mais sensíveis às variações das taxas em Reais.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

When estimating policy parameters, also known as treatment effects, the assignment to treatment mechanism almost always causes endogeneity and thus bias many of these policy parameters estimates. Additionally, heterogeneity in program impacts is more likely to be the norm than the exception for most social programs. In situations where these issues are present, the Marginal Treatment Effect (MTE) parameter estimation makes use of an instrument to avoid assignment bias and simultaneously to account for heterogeneous effects throughout individuals. Although this parameter is point identified in the literature, the assumptions required for identification may be strong. Given that, we use weaker assumptions in order to partially identify the MTE, i.e. to stablish a methodology for MTE bounds estimation, implementing it computationally and showing results from Monte Carlo simulations. The partial identification we perfom requires the MTE to be a monotone function over the propensity score, which is a reasonable assumption on several economics' examples, and the simulation results shows it is possible to get informative even in restricted cases where point identification is lost. Additionally, in situations where estimated bounds are not informative and the traditional point identification is lost, we suggest a more generic method to point estimate MTE using the Moore-Penrose Pseudo-Invese Matrix, achieving better results than traditional methods.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O item não apresenta o texto completo, para aquisição do livro na íntegra você poderá acessar a Editora da UFSCar por meio do link: www.editora.ufscar.br

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O objectivo desta tese é discutir o uso das distribuições hiperbólicas generalizadas como modelo para os retornos logarítmicos de 4 activos do mercado de capitais Português. Os activos em análise são o índice Português PSI 20 e as 3 maiores empresas pertencentes ao PSI 20: PT, EDP e BCP. Os dados são constituidos pelos valores de fecho diário durante mais de 8 anos. Utilizando o software R procederemos à estimação dos parâmetros das distribuições para ajustamento aos dados empíricos. Para medir o grau de ajustamento das distribuições aos dados empíricos usamos os gráficos QQ-plots e 4 distâncias: Kolmogorov-Smirnov, Kuiper, Anderson-Darling e Fajardo-Farias-Ornelas. Os resultados obtidos permitem concluir que o melhor ajustamento é feito pela hiperbólica generalizada e em seguida a distribuição normal inversa gaussiana. Todas as distribuições desta família ajustam-se muito melhor que a distribuição normal. Por último temos uma aplicação ao cálculo do preço de derivados financeiros, nomeadamente a fórmula de uma opção de compra Europeia no modelo discutido.