977 resultados para Método dos momentos
Resumo:
A maioria dos métodos de síntese e sintonia de controladores, bem como métodos de otimização e análise de processos necessitam de um modelo do processo em estudo. A identificação de processos é portanto uma área de grande importância para a engenharia em geral pois permite a obtenção de modelos empíricos dos processos com que nos deparamos de uma forma simples e rápida. Mesmo não utilizando leis da natureza, os modelos empíricos são úteis pois descrevem o comportamento específico de determinado processo. Com o rápido desenvolvimento dos computadores digitais e sua larga aplicação nos sistemas de controle em geral, a identificação de modelos discretos foi amplamente desenvolvida e empregada, entretanto, modelos discretos não são de fácil interpretação como os modelos contínuos pois a maioria dos sistema com que lidamos são de representação contínua. A identificação de modelos contínuos é portanto útil na medida que gera modelos de compreensão mais simples. A presente dissertação estuda a identificação de modelos lineares contínuos a partir de dados amostrados discretamente. O método estudado é o chamado método dos momentos de Poisson. Este método se baseia em uma transformação linear que quando aplicada a uma equação diferencial ordinária linear a transforma em uma equação algébrica evitando com isso a necessidade do cálculo das derivadas do sinais de entrada e saída Além da análise detalhada desse método, onde demonstramos o efeito de cada parâmetro do método de Poisson sobre o desempenho desse, foi realizado também um estudo dos problemas decorrentes da discretização de sinais contínuos, como por exemplo o efeito aliasing decorrente da utilização de tempos de amostragem muito grandes e de problemas numéricos da identificação de modelos discretos utilizando dados com tempos de amostragem muito pequenos de forma a destacar as vantagens da identificação contínua sobre a identificação discreta Também foi estudado um método para compensar a presença de offsets nos sinais de entrada e saída, método esse inédito quando se trata do método dos momentos de Poisson. Esse trabalho também comprova a equivalência entre o método dos momentos de Poisson e uma metodologia apresentada por Rolf Johansson em um artigo de 1994. Na parte final desse trabalho são apresentados métodos para a compensação de erros de modelagem devido à presença de ruído e distúrbios não medidos nos dados utilizados na identificação. Esses métodos permitem que o método dos momentos de Poisson concorra com os métodos de identificação discretos normalmente empregados como por exemplo ARMAX e Box-Jenkins.
Resumo:
A inclusão de momentos superiores no apreçamento de ativos do modelo CAPM vem sendo bastante discutido nas últimas décadas. Esse trabalho realiza um teste empírico para o modelo CAPM estendido para os 3o e 4o momentos, no qual as assimetrias e curtoses dos ativos também são apreçadas. O teste foi realizado utilizando o Método Generalizado dos Momentos (MGM), em que todas as condições de momento derivam do modelo teórico. Os dados utilizados foram os retornos diários das ações mais negociadas na Bovespa entre 2004 e 2006.
Resumo:
This work proposes a model to investigate the use of a cylindrical antenna used in the thermal method of recovering through electromagnetic radiation of high-viscosity oil. The antenna has a simple geometry, adapted dipole type, and it can be modelled by using Maxwell s equation. The wavelet transforms are used as basis functions and applied in conjunction with the method of moments to obtain the current distribution in the antenna. The electric field, power and temperature distribution are carefully calculated for the analysis of the antenna as electromagnetic heating. The energy performance is analyzed based on thermo-fluid dynamic simulations at field scale, and through the adaptation in the Steam Thermal and Advanced Processes Reservoir Simulator (STARS) by Computer Modelling Group (CMG). The model proposed and the numerical results obtained are stable and presented good agreement with the results reported in the specialized literature
Resumo:
This work consists on the theoretical and numerical analysis of some properties of circular microstrip patch antennas on isotropic and uniaxial anisotropic substrates. For this purpose, a full wave analysis is performed, using Hertz Vector Potentials method in the Hankel Transform domain. In the numerical analysis, the moment method is also used in order to determine some characteristics of the antenna, such as: resonant frequency and radiation pattern. The definition of Hertz potentials in the Hankel domain is used in association with Maxwell´s equations and the boundary conditions of the structures to obtain the Green´s functions, relating the components of the current density on the patch and the tangential electric field components. Then, the Galerkin method is used to generate a matrix equation whose nontrivial solution is the complex resonant frequency of the structure. In the analysis, a microstrip antenna with only one isotropic dielectric layer is initially considered. For this structure, the effect of using superconductor patches is also analyzed. An analysis of a circular microstrip antenna on an uniaxial anisotropic dielectric layer is performed, using the Hertz vector potentials oriented along the optical axis of the material, that is perpendicular to the microstrip ground plane. Afterwards, the circular microstrip antenna using two uniaxial anisotropic dielectric layers is investigated, considering the particular case in which the inferior layer is filled by air. In this study, numerical results for resonant frequency and radiation pattern for circular microstrip antennas on isotropic and uniaxial anisotropic substrates are presented and compared with measured and calculated results found in the literature
Resumo:
Pós-graduação em Matematica Aplicada e Computacional - FCT
Resumo:
This work proposes a model to investigate the use of a cylindrical antenna used in the thermal method of recovering through electromagnetic radiation of high-viscosity oil. The antenna has a simple geometry, adapted dipole type, and it can be modelled by using Maxwell s equation. The wavelet transforms are used as basis functions and applied in conjunction with the method of moments to obtain the current distribution in the antenna. The electric field, power and temperature distribution are carefully calculated for the analysis of the antenna as electromagnetic heating. The energy performance is analyzed based on thermo-fluid dynamic simulations at field scale, and through the adaptation in the Steam Thermal and Advanced Processes Reservoir Simulator (STARS) by Computer Modelling Group (CMG). The model proposed and the numerical results obtained are stable and presented good agreement with the results reported in the specialized literature
Resumo:
Os Modelos de Equações Simultâneas (SEM) são modelos estatísticos com muita tradição em estudos de Econometria, uma vez que permitem representar e estudar uma vasta gama de processos económicos. Os estimadores mais usados em SEM resultam da aplicação do Método dos Mínimos Quadrados ou do Método da Máxima Verosimilhança, os quais não são robustos. Em Maronna e Yohai (1997), os autores propõem formas de “robustificar” esses estimadores. Um outro método de estimação com interesse nestes modelos é o Método dos Momentos Generalizado (GMM), o qual também conduz a estimadores não robustos. Estimadores que sofrem de falta de robustez são muito inconvenientes uma vez que podem conduzir a resultados enganadores quando são violadas as hipóteses subjacentes ao modelo assumido. Os estimadores robustos são de grande valor, em particular quando os modelos em estudo são complexos, como é o caso dos SEM. O principal objectivo desta investigação foi o de procurar tais estimadores tendo-se construído um estimador robusto a que se deu o nome de GMMOGK. Trata-se de uma versão robusta do estimador GMM. Para avaliar o desempenho do novo estimador foi feito um adequado estudo de simulação e foi também feita a aplicação do estimador a um conjunto de dados reais. O estimador robusto tem um bom desempenho nos modelos heterocedásticos considerados e, nessas condições, comporta-se melhor do que os estimadores não robustos usados no estudo. Contudo, quando a análise é feita em cada equação separadamente, a especificidade de cada equação individual e a estrutura de dependência do sistema são dois aspectos que influenciam o desempenho do estimador, tal como acontece com os estimadores usuais. Para enquadrar a investigação, o texto inclui uma revisão de aspectos essenciais dos SEM, o seu papel em Econometria, os principais métodos de estimação, com particular ênfase no GMM, e uma curta introdução à estimação robusta.
Resumo:
Os registros de vazões líquidas obtidos das estações fluviométricas são válidos, unicamente, para o local de onde foram coletados ou muito próximo a ele. Na maioria das vezes, a região de influência deste não inclui o local de interesse para o desenvolvimento de projetos de recursos hídricos. Este inconveniente, geralmente, pode ser resolvido através do uso de métodos de regionalização hidrológica. Para determinar os coeficientes da equação de regionalização, o procedimento mais usado consiste em: i) estabelecer uma relação do tipo exponencial multivariada entre a variável dependente (vazão média de longo prazo ou média anual de cheia) e as covariáveis (variáveis climáticas e fisiográficas da bacia hidrográfica); ii) linearizar a equação anterior mediante a transformação logarítmica de ambos os membros; iii) utilizar modelos lineares de regressão para estimar os coeficientes, geralmente, o método dos mínimos quadrados ordinários; e iv) aplicar a transformação inversa para definir a equação. A aplicação deste procedimento implica assumir certas propriedades dos dados (assimetria positiva, registros da mesma extensão e que os mesmos possuem o mesmo período de início e fim, entre outros) que dificilmente podem ser atendidas, prejudicando a verificação das hipóteses nas quais estão baseados os métodos lineares de regressão e, em conseqüência, seu adequado uso, bem como a confiabilidade dos resultados obtidos. Esta pesquisa apresenta um aprimoramento dos métodos de regionalização de vazões geralmente empregados, incluindo-se técnicas que levam em consideração as limitações anteriores. Estas técnicas foram: i) uso da transformada de Box-Cox na linearização da equação exponencial multivariada; ii) determinação dos coeficientes da equação de regionalização usando mínimos quadrados ponderados; e iii) verificação se os resíduos da regressão estão correlacionados ou não. Para o desenvolvimento e verificação da metodologia proposta foram usados somente registros fluviométricos de Bacias Hidrográficas Brasileiras, que drenam suas águas para o Rio Grande do Sul e/ou que estejam localizadas dentro dele. Geograficamente, a área de estudo inclui a totalidade do estado do Rio Grande do Sul e parte de Santa Catarina. As equações de regionalização foram definidas usando dados de vazões médias de longo prazo e média de cheia, para tempo de retorno de 2,33 e 50 anos. Neste último caso, as freqüências foram estimadas através do método dos momentos-L.Comparando os resultados obtidos utilizando o modelo de regionalização hidrológica proposto neste trabalho (transformada de Box-Cox / mínimos quadrados ponderados) junto a seus similares gerados usando a metodologia convencional (transformada logarítmica / mínimos quadrados ordinários) e de modelos intermediários (transformada logarítmica / mínimos quadrados ponderados e transformada de Box-Cox / mínimos quadrados ordinários), os mesmos podem ser considerados satisfatórios, visto que em todas as simulações realizadas o modelo proposto forneceu melhores resultados que aqueles obtidos com os outros modelos, sendo utilizado como padrão de comparação: 1) a qualidade do ajuste, 2) o grau de verificação das hipóteses dos métodos lineares de regressão e 3) os erros na estimativa das descargas, em termos de vazão específica. Nas simulações realizadas usando os modelos intermediários, observou-se que: i) na regionalização de vazões médias, o ganho de considerar a heterogeneidade temporal dos dados é maior do que corrigir a assimetria dos mesmos; ii) quando são usadas séries de descargas máximas, ocorre o efeito contrário, visto que o ganho de corrigir a assimetria das séries é maior do que o efeito da heterogeneidade temporal dos dados. Com relação aos resíduos da regressão, contrariamente ao esperado, os mesmos não sugerem estar correlacionados; isto pode ser conseqüência de utilizar como variável dependente um único registro por estação (vazão média de longo prazo ou média anual de cheia).
Resumo:
Este trabalho está dividido em dois ensaios. O primeiro ensaio examina aspectos da liquidez do mercado secundário de títulos públicos no Brasil no período 2003 a 2006 e os determinantes do spread de compra e venda no mercado secundário de LTN - Letra do Tesouro Nacional no período 2005 a 2006. Os spreads foram calculados com base em dados diários de alta freqüência, para períodos de 30 minutos e de um dia. Em linhas gerais, a liquidez é um determinante importante no cálculo do spread. Especificamente os spreads diminuem quando os volumes ofertados aumentam. No caso dos prazos de vencimento, os spreads aumentam quando os prazos se ampliam. LTNs com prazos de vencimentos até 30 dias apresentaram spreads de 1 centavo de reais (1.89 bp) enquanto que LTNs com prazos acima de dois anos apresentaram spreads médios em torno de 54 centavos de reais (3.84 bp) para intervalos de 30 minutos e 81 centavos de reais (5.72 bp) para intervalos de um dia. Os testes econométricos foram realizados com base em um modelo apresentado por Chakravarty e Sarkar (1999) e aplicado ao mercado americano de bonds no período de 1995 e 1997. Os testes foram feitos utilizando-se a técnica do Método dos Momentos Generalizados (GMM). Os resultados confirmam o spread de compra e venda como medida importante no acompanhamento da liquidez. O segundo ensaio compara aspectos da liquidez e da microestrutura do mercado de títulos públicos em alguns paises como Brasil, Chile, México, Coréia, Singapura, Polônia e Estados Unidos. A análise utiliza algumas dimensões da microestrutura como a liquidez do mercado secundário (spread de compra e venda, giro do estoque de títulos e vencimentos mais negociados), os custos de eficiência, a estrutura e transparência do mercado primário e secundário e, por último, a segurança do mercado. O objetivo é comparar as características e o funcionamento dos mercados secundários desses paises e, confrontar com a realidade do mercado brasileiro face ao desenvolvimento da microestrutura. Apesar da falta de alongamento dos prazos dos títulos públicos, o mercado secundário no Brasil apresenta aspectos da microestrutura semelhantes aos paises em consideração o que sugere a existência de outros fatores fora a microestrutura que limitam o aumento dos prazos. Os resultados do primeiro ensaio ajudam nas comparações dos demais paises. Como resultado, encontramos que embora a liquidez do mercado secundário de títulos públicos no Brasil concentra-se em papéis de prazo menor, este fato provavelmente não se deve a questões de microestrutura do mercado.
Resumo:
Um rating de crédito de baixo (ou alto) risco possibilita uma redução (ou elevação) do spread pago pelo emissor na ocasião da emissão de títulos de crédito, bem como na captação de financiamentos e empréstimos bancários. Assim, o rating apresenta-se como um aspecto relevante nas decisões de estrutura de capitais de uma empresa, sobretudo pela possibilidade de influenciar nos seus níveis de dívidas. Todavia, apesar da importância atribuída pelos agentes de mercado e a existência de indícios empíricos do efeito do rating sobre a estrutura de capitais de uma empresa, os poucos estudos já realizados acerca das associações entre as tendências de reclassificações dos ratings de crédito e as decisões de estrutura de capitais de uma firma não têm abordado os mercados latino-americanos. Não são comuns nos mercados da América Latina estudos analisando se as empresas avaliam internamente a iminência de uma reclassificação do seu rating e, a partir disso, alteram a sua composição de estrutura de capitais de modo a evitar que ocorra um downgrade, ou mesmo para estimular a ocorrência de um upgrade, em sua classificação de risco de crédito. Nesse sentido, o objetivo desta pesquisa é analisar o impacto das tendências de reclassificações do rating de crédito sobre as decisões de estrutura de capitais de empresas listadas da América Latina. Para verificar a existência dessa associação foram empregados dados pertencentes a todas as empresas não-financeiras listadas da América Latina, possuidoras de ratings emitidos pelas três principais agências de ratings internacionais (i.e. Stardand & Poor´s, Moody´s e Fitch) em janeiro de 2010. Desse modo, fizeram parte da pesquisa todas as empresas listadas em seis diferentes países latino-americanos, no período 2001-2010. Os principais resultados empíricos obtidos sugerem que: (i) as reclassificações dos ratings de crédito não possuem conteúdo informacional para as decisões de estrutura de capitais das empresas listadas da América Latina, ou seja, não foi observada associação entre as tendências de reclassificações do ratings de crédito e as decisões sobre composição das estruturas de capitais das empresas listadas da América Latina; (ii) entre as empresas consideradas na pesquisa, aquelas que se encontravam em níveis piores de riscos e na iminência de reclassificações do rating de crédito, tenderam a utilizar mais dívidas do que as outras empresas analisadas na pesquisa.
Resumo:
Neste trabalho investigamos as propriedades em pequena amostra e a robustez das estimativas dos parâmetros de modelos DSGE. Tomamos o modelo de Smets and Wouters (2007) como base e avaliamos a performance de dois procedimentos de estimação: Método dos Momentos Simulados (MMS) e Máxima Verossimilhança (MV). Examinamos a distribuição empírica das estimativas dos parâmetros e sua implicação para as análises de impulso-resposta e decomposição de variância nos casos de especificação correta e má especificação. Nossos resultados apontam para um desempenho ruim de MMS e alguns padrões de viés nas análises de impulso-resposta e decomposição de variância com estimativas de MV nos casos de má especificação considerados.
Resumo:
Os resultados obtidos possibilitam afirmar que as indústrias que mais investiram em Tecnologia de Informação (TI), no período de 2001 a 2011, obtiveram maior crescimento da sua receita operacional e resultados operacionais mais eficazes, comparadas com as indústrias que investiram menos no período. De acordo com o modelo proposto, para as empresas estudadas foi possível encontrar, no prazo de dois anos, um crescimento de 7% no resultado operacional para cada 1% a mais de investimentos em TI. Destaca-se o objetivo da pesquisa de identificar e analisar os impactos dos gastos e investimentos em tecnologia de informação no desempenho financeiro das indústrias brasileiras, para alcançá-lo, adotou-se um modelo de pesquisa que utilizou métricas contábeis-financeiras e indicadores de uso TI, bem como a combinação de técnicas estatísticas para as análises. O trabalho aprofunda e amplia as discussões existentes sobre a avaliação dos investimentos em TI e como aferir o impacto desta sobre o desempenho organizacional. O universo do estudo foi composto pelas companhias brasileiras, de capital aberto, do ramo industrial, com ações ativas na BOVESPA, totalizando 119 companhias. Por meio de uma survey obteve-se os dados complementares referentes aos gastos e investimentos em TI; os questionários semiestruturados foram encaminhados diretamente ao Gerente de TI (Chief Information Officer). Estes esforços na coleta de dados primários possibilitaram a obtenção de uma amostra bastante significativa, com 63 indústrias, ou seja, 53% da população estudada. Após coleta, a análise dos dados foi desenvolvida em três etapas: (1) Análise Fatorial (AF) para seleção de fatores de desempenho que resultou no final do processo em doze variáveis para o modelo da pesquisa; (2) Análise de Cluster (AC) que evidenciou três agrupamentos distintos de indústrias por suas características e desempenho e (3) Regressão Múltipla que adotou um modelo econométrico dinâmico, estimado pelo Método dos Momentos Generalizado (GMM), satisfazendo as condições do modelo de Arellano-Bond (1991). Salienta-se que o modelo proposto permitiu tratar de forma adequada metodologicamente as correlações espúrias, possibilitando identificar que os gastos e investimentos em TI, (IGTI t-2), de dois períodos anteriores impactaram no Resultado Operacional Atual, (ROPt), evidenciando o efeito tardio, ou lag effect. Além disso, foi constatado que outras variáveis de rentabilidade e liquidez impactam neste resultado, também adotando defasagem das variáveis. A principal variável de TI da pesquisa, o IGTI, é calculada pela soma de gastos e investimentos em TI anuais (OPEX/CAPEX), dividida pela Receita Operacional Líquida anual. Para pesquisas futuras, há a possibilidade de buscar medidas de avaliação por tipos (categorias) de investimento em TI, visando ao aprofundamento da análise destes impactos no desempenho setorizado (ligado a cada investimento) e da análise de clusters, adotando o modelo de análise da pesquisa.
Resumo:
Muitos trabalhos têm sido elaborados a respeito da curva de demanda agregada brasileira, a curva IS, desde a implementação do Plano Real e, principalmente, após a adoção do regime de câmbio flutuante. Este trabalho tem como objetivo estimar algumas especificações para a curva IS brasileira, para o período após a implementação do câmbio flutuante, do regime de metas de inflação e da Lei de Responsabilidade Fiscal, i.e. após o ano 2000. As especificações para as curvas estimadas tiveram como base o modelo novo-keynesiano, tendo sido incluídas algumas variáveis explicativas buscando captar o efeito na demanda agregada da maior intermediação financeira na potência da política monetária e o efeito do esforço fiscal feito pelo governo brasileiro. O trabalho utiliza o Método dos Momentos Generalizados (MMG) para estimar a curva IS em sua especificação foward-looking e o Método dos Mínimos Quadrados Ordinários (MQO) para estimar a curva IS em sua versão backward-looking. Os resultados mostram forte significância para o hiato do produto em todas as especificações. As especificações foward-looking mostram coeficientes significantes, porém com sinais opostos ao esperado para os juros e superávit primário. Nas regressões backward-looking o sinal dos coeficientes encontrados são os esperados, porém, mostram-se não significantes.
Resumo:
Esta dissertação se propõe ao estudo de inferência usando estimação por método generalizado dos momentos (GMM) baseado no uso de instrumentos. A motivação para o estudo está no fato de que sob identificação fraca dos parâmetros, a inferência tradicional pode levar a resultados enganosos. Dessa forma, é feita uma revisão dos mais usuais testes para superar tal problema e uma apresentação dos arcabouços propostos por Moreira (2002) e Moreira & Moreira (2013), e Kleibergen (2005). Com isso, o trabalho concilia as estatísticas utilizadas por eles para realizar inferência e reescreve o teste score proposto em Kleibergen (2005) utilizando as estatísticas de Moreira & Moreira (2013), e é obtido usando a teoria assintótica em Newey & McFadden (1984) a estatística do teste score ótimo. Além disso, mostra-se a equivalência entre a abordagem por GMM e a que usa sistema de equações e verossimilhança para abordar o problema de identificação fraca.