1000 resultados para Algoritmos bioinspirado
Resumo:
O presente estudo tem como objetivo comparar e combinar diferentes técnicas de projeção para o PIB trimestral brasileiro de 1991 ao segundo trimestre de 2014, utilizando dados agregados, e dados desagregados com pesos fixos e estocásticos. Os modelos desagregados univariados e multivariados, assim como os pesos estocásticos, foram estimados pelo algoritmo Autometrics criado por Doornik (2009), através dos níveis de desagregação disponibilizados pelo IBGE no Sistema de Contas Nacionais. Os modelos agregados foram estimados pelo Autometrics, por Markov-Switching e por modelos estruturais de espaço-estado. A metodologia de comparação de projeções utilizada foi o Model Confidence Set, desenvolvida por Hanse, Lunde e Nason (2011). Foram realizadas duas simulações, sendo a primeira com a análise fora da amostra a partir de 2008, e a segunda a partir de 2000, com horizonte de projeção de até 6 passos à frente. Os resultados sugerem que os modelos desagregados com pesos fixos desempenham melhor nos dois primeiros passos, enquanto nos períodos restantes os modelos da série agregada geram melhores previsões.
Resumo:
This study aims to contribute on the forecasting literature in stock return for emerging markets. We use Autometrics to select relevant predictors among macroeconomic, microeconomic and technical variables. We develop predictive models for the Brazilian market premium, measured as the excess return over Selic interest rate, Itaú SA, Itaú-Unibanco and Bradesco stock returns. We nd that for the market premium, an ADL with error correction is able to outperform the benchmarks in terms of economic performance. For individual stock returns, there is a trade o between statistical properties and out-of-sample performance of the model.
Resumo:
O Mercado Acionário Americano evoluiu rapidamente na última década. Este tornou-se uma arquitetura aberta em que participantes com tecnologia inovadora podem competir de forma eficaz. Várias mudanças regulatórias e inovações tecnológicas permitiram mudanças profundas na estrutura do mercado. Essas mudanças, junto com o desenvolvimento tecnológico de redes de alta velocidade, agiu como um catalisador, dando origem a uma nova forma de negociação, denominada Negociação em Alta Frequência (HFT). As empresas de HFT surgiram e se apropriaram em larga escala do negócio de formação de mercado, no fornecimento de liquidez. Embora HFT tem crescido massivamente, ao longo dos últimos quatro anos, HFT perdeu rentabilidade significativamente, uma vez que mais empresas aderiram ao setor reduzindo as margens. Portanto, diante deste contexto, esta tese buscou apresentar uma breve revisão sobre a atividade de HFT, seguida de uma análise dos limites deste setor, bem como, das características do macroambiente do HFT. Para tanto, a tese realizou uma extensa revisão do histórico literário, documentos públicos qualitativos, tais como, jornais, atas de reunião e relatórios oficiais. A tese empregou um ferramental de análise, Barreiras de Entrada e Mobilidade (Porter, 1980); Modelos de Evolução Setorial (McGahan, 2004); Estrutura do Setor de Informação Intensiva (Sampler, 1998), para analisar os limites do setor de HFT. Adicionalmente, empregou as ferramentas de análise, Modelos de Evolução Setorial (McGahan, 2004) e PESTEL (JOHNSON, SCHOLES, and WHITTINGTON, 2011), para analisar o setor e o contexto que envolve o negócio de HFT. A análise concluiu que as empresas que empregam HFT para atuar e competir no mercado acionário, compoem um setor independente.
Resumo:
Este trabalho visa sistematizar um modelo para previsão e explicação dos movimentos de curto prazo da estrutura a termo de taxas de juros pré-fixada em reais do Brasil, baseado na relação dos movimentos em questão com os níveis e alterações que se processam nas variáveis macroeconômicas relevantes. A metodologia usada foi dividir o procedimento em duas etapas: Na primeira etapa, o modelo de Svensson (1994) é usado para ajustar a Estrutura a Termo de Taxas de Juros de cada data específica para obter os parâmetros daquela data. Isso é conseguido através da maximização da estatística R2 na regressão de mínimos quadrados, como sugerido no artigo original de Nelson e Siegel (1987). Então, as medianas dos dois parâmetros de decaimento utilizados são calculadas e mantidas arbitrariamente constantes para facilitar os cálculos da segunda etapa. Na segunda etapa, uma vez que os estimadores que melhor se ajustam às curvas de juros foram obtidos, outra regressão de MQO é realizada considerando os betas de Svensson dependentes de variáveis macroeconômicas de estado.
Resumo:
O objetivo deste trabalho é aplicar e avaliar o desempenho do conceito de técnicas de nowcasting para previsão de uma importante variável macroeconômica do Produto Interno Bruto (PIB) brasileiro. Nos últimos anos, novas técnicas vêm sendo propostas e aprimoradas. Comparam-se diferentes modelos de nowcasting frente a um benchmarking, avaliando a relevância das variáveis a partir do Autometrics, que foi desenvolvido por Doornik (2011). A proposta é reunir diversos indicadores econômicos da economia brasileira que possam em maior ou menor grau antecipar a variação do PIB. Será utilizada a técnica de variáveis dummies com saturação (proposta por Johansen et. al.) para controlar possíveis quebras e outliers. Esta abordagem é adequada para um ambiente econômico instável, com constantes mudanças ao longo do tempo.
Resumo:
Na modelagem de sistemas complexos, abordagens analíticas tradicionais com equações diferenciais muitas vezes resultam em soluções intratáveis. Para contornar este problema, Modelos Baseados em Agentes surgem como uma ferramenta complementar, onde o sistema é modelado a partir de suas entidades constituintes e interações. Mercados Financeiros são exemplos de sistemas complexos, e como tais, o uso de modelos baseados em agentes é aplicável. Este trabalho implementa um Mercado Financeiro Artificial composto por formadores de mercado, difusores de informações e um conjunto de agentes heterogêneos que negociam um ativo através de um mecanismo de Leilão Duplo Contínuo. Diversos aspectos da simulação são investigados para consolidar sua compreensão e assim contribuir com a concepção de modelos, onde podemos destacar entre outros: Diferenças do Leilão Duplo Contínuo contra o Discreto; Implicações da variação do spread praticado pelo Formador de Mercado; Efeito de Restrições Orçamentárias sobre os agentes e Análise da formação de preços na emissão de ofertas. Pensando na aderência do modelo com a realidade do mercado brasileiro, uma técnica auxiliar chamada Simulação Inversa, é utilizada para calibrar os parâmetros de entrada, de forma que trajetórias de preços simulados resultantes sejam próximas à séries de preços históricos observadas no mercado.
Algoritmo genético para seleção de contingências na análise estática de segurança em redes elétricas
Resumo:
O item não apresenta o texto completo, para aquisição do livro na íntegra você poderá acessar a Editora da UFSCar por meio do link: www.editora.ufscar.br
Resumo:
O item não apresenta o texto completo, pois está passando por revisão editorial
Resumo:
Esta animação descreve as representações de números binários sem sinal, representação de sinal e magnitude, complemento de 1, complemento de 2. Também são apresentadas a adição de números sem sinal, a subtração em complemento de 2, o conceito de overflow e exceção. O projeto de uma unidade lógica e aritmética (ULA) é descrito, assim como alguns exemplos das operações: slt e beq. Três versões da operação de multiplicação, que é mais complicada que a de soma, são apresentadas por meio de figuras e algoritmos. A representação de ponto flutuante e o padrão IEEE 754 também são descritos.