904 resultados para complessità computazionale primalità problemi polinomiali algoritmo aks


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho fazemos um resumo de alguns artigos que tratam de equilíbrio geral dinâmico com custos de default. Focamos no estudo dos modelos de Kehoe e Levine (1993) e de Alvarez e Jermann (2000). Também descrevemos algumas adaptações do modelo de Alvarez e Jermann, como os trabalhos de Hellwig e Lorenzoni (2009) e de Azariadis e Kaas (2008), e comparamos os resultados desses modelos com os de Huggett (1993), no qual os mercados são exogenamente incompletos. Finalmente, expomos uma falha no algoritmo computacional sugerido por Krueger e Perry (2010) para se computar os equilíbrios estacionários de economias como as de Alvarez e Jermann (2000).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho tem como objetivo aplicar uma modelagem não linear ao Produto Interno Bruto brasileiro. Para tanto foi testada a existência de não linearidade do processo gerador dos dados com a metodologia sugerida por Castle e Henry (2010). O teste consiste em verificar a persistência dos regressores não lineares no modelo linear irrestrito. A seguir a série é modelada a partir do modelo autoregressivo com limiar utilizando a abordagem geral para específico na seleção do modelo. O algoritmo Autometrics é utilizado para escolha do modelo não linear. Os resultados encontrados indicam que o Produto Interno Bruto do Brasil é melhor explicado por um modelo não linear com três mudanças de regime, que ocorrem no inicio dos anos 90, que, de fato, foi um período bastante volátil. Através da modelagem não linear existe o potencial para datação de ciclos, no entanto os resultados encontrados não foram suficientes para tal análise.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação expõe reflexões sobre o ensino da Matemática e tem como referencial teórico básico a Epistemologia Genética. O objetivo do trabalho é elucidar os conhecimentos sobre a operação de divisão que as crianças pesquisadas trouxeram para a escola antes de entrarem em contato com o algoritmo convencional. Para a coleta de dados, foram entrevistados estudantes de seis, sete e oito anos, pertencentes a classes multisseriadas de duas escolas do município de Teutônia, RS. Os estudantes foram divididos em dois grupos (G1 e G2). A entrevista inicial foi realizada com os dois grupos. As intervenções didáticas, denominadas, no seu conjunto, “unidade instrutiva”, foram realizadas apenas com o grupo G2, após a entrevista inicial, e tinham como objetivo contribuir para a compreensão do conceito de divisão a partir do esquema da correspondência. A unidade instrutiva elucidou a importância das intervenções didáticas apoiadas no estudo sobre a construção lógico-matemática bem como na compreensão do processo de ensinar e aprender. Considerando que crianças de primeira e segunda série de classes multisseriadas foram capazes de resolver problemas de divisão através do registro espontâneo, conclui-se que é necessário rever a forma de trabalho proposto pela escola, a qual utiliza técnicas que levam ao fracasso nas séries seguintes (terceira e quarta), quando a divisão passa a ser ensinada. Com esse objetivo, propomos, uma intervenção didática que nos parece mais apropriada considerando-se o que os estudos nos têm mostrado. Compreendendo como a criança constrói o conceito de divisão, o professor poderá realizar intervenções que se baseiem no esquema de correspondência, que tem se mostrado um caminho promissor para que a criança compreenda tal conceito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo comparar metodologias distintas para cálculo de desalinhamento cambial além de testar a hipótese se as taxas de câmbio dos diversos países sofrem influencia apenas dos seus próprios fundamentos ou também da taxa de câmbio e dos fundamentos de outros países. Estas hipóteses consistem, respectivamente, na ausência ou na existência de interdependência entre os diversos países. Para realizar tal tarefa utilizam-se duas estratégias empíricas. A primeira baseia-se em avaliar se um modelo multivariado de séries de tempo usualmente utilizada na literatura de desalinhamento cambial com dados apenas do próprio país em análise pode ser melhorado através da adição de variáveis relacionadas a outros países usando o algoritmo proposto por David Hendry e co-autores. A segunda estratégia consiste em estimar um panel longo com as variáveis utilizadas para estimar desalinhamento cambial e testar formalmente a hipótese de ausência de interdependências. Os resultados sugerem que em ambas estratégias existe evidência de existência de interdependência. Esta ocorreria mais por conta de fatores ligados ao curto prazo, ou seja, o que explicaria o valor da taxa de câmbio de um país no longo prazo seriam seus próprios fundamentos enquanto no curto prazo fatores externos poderiam causar desvios

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta uma nova metodologia de localização de faltas em sistemas de distribuição de energia. O esquema proposto é capaz de obter uma estimativa precisa da localização tanto de faltas sólidas e lineares quanto de faltas de alta impedância. Esta última classe de faltas representa um grande problema para as concessionárias distribuidoras de energia elétrica, uma vez que seus efeitos nem sempre são detectados pelos dispositivos de proteção utilizados. Os algoritmos de localização de faltas normalmente presentes em relés de proteção digitais são formulados para faltas sólidas ou com baixa resistência de falta. Sendo assim, sua aplicação para localização de faltas de alta impedância resulta em estimativas errôneas da distância de falta. A metodologia proposta visa superar esta deficiência dos algoritmos de localização tradicionais através da criação de um algoritmo baseado em redes neurais artificiais que poderá ser adicionado como uma rotina adicional de um relé de proteção digital. O esquema proposto utiliza dados oscilográficos pré e pós-falta que são processados de modo que sua localização possa ser estimada através de um conjunto de características extraídas dos sinais de tensão e corrente. Este conjunto de características é classificado pelas redes neurais artificiais de cuja saída resulta um valor relativo a distância de falta. Além da metodologia proposta, duas metodologias para localização de faltas foram implementadas, possibilitando a obtenção de resultados comparativos. Os dados de falta necessários foram obtidos através de centenas de simulações computacionais de um modelo de alimentador radial de distribuição. Os resultados obtidos demonstram a viabilidade do uso da metodologia proposta para localização de faltas em sistemas de distribuição de energia, especialmente faltas de alta impedância.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho trata de um problema de modelagem de redes de distribuição, que consiste em determinar a quantidade e a localização de centros de distribuição, bem como o estabelecimento da capacidade nominal, alocação de clientes e de fornecedores e determinação de quais famílias de produtos devem ser estocadas em cada depósito, de forma a minimizar a soma dos custos de armazenagem e de transporte. É exposta uma sistemática de análise para a localização de depósitos, onde são listadas as principais etapas a serem seguidas. Ainda, são apresentados dois modelos estratégicos, baseados em técnicas matemáticas distintas, que são aplicados à localização de multi-depósitos em uma cadeia com multi-produtos. São propostos um algoritmo de otimização, baseado em programação linear inteira-mista, e um modelo de localização no plano aplicado a múltiplas instalações, capazes de analisar toda a cadeia logística. Ilustra-se a aplicação destes modelos através do estudo de um caso prático em uma empresa de suprimentos industriais. Por fim, as soluções propostas pelos modelos são avaliadas através de análise de sensibilidade. Estes resultados são analisados de modo a estabelecer conclusões em relação à eficiência, precisão, praticidade e aplicabilidade dos modelos propostos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho foram avaliados os benefícios da previsão de vazão afluente de curto e longo prazo, na operação de um reservatório com dois usos conflitantes: geração de energia e controle de cheias. A simulação da operação do reservatório foi realizada com base em dois tipos de modelos para avaliar os benefícios da previsão. Um modelo de operação sem previsão e outro com previsão de vazão afluente, este último desenvolvido no presente trabalho. Regras de operação simples, na forma de curvas-guia lineares, foram utilizadas nos casos de operação com e sem previsão de vazões afluentes. As curvas-guia foram otimizadas através de uma técnica de parametrização, simulação e otimização utilizando um algoritmo evolutivo semelhante a um algoritmo genético. Como base para as análises foram utilizados dados relativos ao reservatório de Três Marias, no Rio São Francisco, principalmente pela disponibilidade de previsões reais de vazão de curto prazo a partir de um trabalho prévio. Essas previsões reais de vazão foram calculadas através de um modelo hidrológico distribuído que utiliza como dados de entrada, previsões de chuva do modelo atmosférico regional ETA. Para avaliar o potencial benefício das previsões de vazão na operação do reservatório, foram realizados testes considerando às vazões afluentes observadas como “previsões perfeitas de vazão”. Os resultados com previsões perfeitas de vazão mostram que pode haver um benefício relativo (incremento na geração de energia) de aproximadamente 8% (cerca de 4,77 milhões de dólares anuais), se forem utilizadas previsões de vazão de longo prazo com dois meses de antecedência, e se a operação for planejada com essa mesma antecedência. A operação baseada em previsões de prazos ou horizontes mais curtos apresenta benefícios inferiores, mas ainda assim significativos. Por exemplo, a previsão perfeita com freqüência semanal e horizonte de 12 dias pode trazer um benefício de aproximadamente 4,45% (cerca de 2,75 milhões de dólares anuais). Esses benefícios foram obtidos com o mesmo desempenho no controle de cheias. Posteriormente, foram realizados testes utilizando as previsões reais de vazão. Os benefícios obtidos com as previsões reais de curto prazo são inferiores aos benefícios obtidos com as previsões perfeitas de curto prazo, como era esperado. Entretanto, com as previsões reais de vazão, foram obtidos benefícios superiores a 50% dos que seriam esperados com a previsão perfeita (vazões observadas). Os resultados obtidos são promissores e mostram que há vantagens evidentes na utilização de previsões de chuva para se obter previsões de vazão na operação de reservatórios com usos múltiplos, quando também é associada à otimização sistêmica de um aproveitamento hidrelétrico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Outliers são observações que parecem ser inconsistentes com as demais. Também chamadas de valores atípicos, extremos ou aberrantes, estas inconsistências podem ser causadas por mudanças de política ou crises econômicas, ondas inesperadas de frio ou calor, erros de medida ou digitação, entre outras. Outliers não são necessariamente valores incorretos, mas, quando provenientes de erros de medida ou digitação, podem distorcer os resultados de uma análise e levar o pesquisador à conclusões equivocadas. O objetivo deste trabalho é estudar e comparar diferentes métodos para detecção de anormalidades em séries de preços do Índice de Preços ao Consumidor (IPC), calculado pelo Instituto Brasileiro de Economia (IBRE) da Fundação Getulio Vargas (FGV). O IPC mede a variação dos preços de um conjunto fixo de bens e serviços componentes de despesas habituais das famílias com nível de renda situado entre 1 e 33 salários mínimos mensais e é usado principalmente como um índice de referência para avaliação do poder de compra do consumidor. Além do método utilizado atualmente no IBRE pelos analistas de preços, os métodos considerados neste estudo são: variações do Método do IBRE, Método do Boxplot, Método do Boxplot SIQR, Método do Boxplot Ajustado, Método de Cercas Resistentes, Método do Quartil, do Quartil Modificado, Método do Desvio Mediano Absoluto e Algoritmo de Tukey. Tais métodos foram aplicados em dados pertencentes aos municípios Rio de Janeiro e São Paulo. Para que se possa analisar o desempenho de cada método, é necessário conhecer os verdadeiros valores extremos antecipadamente. Portanto, neste trabalho, tal análise foi feita assumindo que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers. O Método do IBRE é bastante correlacionado com os preços alterados ou descartados pelos analistas. Sendo assim, a suposição de que os preços alterados ou descartados pelos analistas são os verdadeiros valores extremos pode influenciar os resultados, fazendo com que o mesmo seja favorecido em comparação com os demais métodos. No entanto, desta forma, é possível computar duas medidas através das quais os métodos são avaliados. A primeira é a porcentagem de acerto do método, que informa a proporção de verdadeiros outliers detectados. A segunda é o número de falsos positivos produzidos pelo método, que informa quantos valores precisaram ser sinalizados para um verdadeiro outlier ser detectado. Quanto maior for a proporção de acerto gerada pelo método e menor for a quantidade de falsos positivos produzidos pelo mesmo, melhor é o desempenho do método. Sendo assim, foi possível construir um ranking referente ao desempenho dos métodos, identificando o melhor dentre os analisados. Para o município do Rio de Janeiro, algumas das variações do Método do IBRE apresentaram desempenhos iguais ou superiores ao do método original. Já para o município de São Paulo, o Método do IBRE apresentou o melhor desempenho. Em trabalhos futuros, espera-se testar os métodos em dados obtidos por simulação ou que constituam bases largamente utilizadas na literatura, de forma que a suposição de que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers não interfira nos resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

São descritos dois novos táxons de Crocodyliformes do Cretáceo do Mato Grosso, que apresentam: crânios curtos; dentição heterodonte composta por dentes com lado labial mais convexo que o lado lingual e serrilhados; dentes anteriores do dentário procumbentes; presença de uma superfície distintamente lisa, acima da margem alveolar, na superfície lateral da maxila, acima da qual ocorrem forames neurovasculares; e vértebras anficélicas. Estes novos materiais foram informalmente chamados Crocodilo I e Crocodilo II. O Crocodilo I apresenta as seguintes características: fenestra pré-orbitária pequena; barra palatina posterolateral em forma de bastão; dente caniniforme hipertrofiado na pré-maxila; 6 dentes maxilares; dentes anteriores do dentário levemente voltados para trás; junta quadrado-articular localizada ventralmente à fileira dentária. O Crocodilo II, por sua vez, apresenta: focinho tubular em seção; amplo palato secundário; espleniais fusionados; 5 dentes maxilares; mandíbula com região sinfiseal alongada e espatulada. Em ambos os casos, a morfologia geral aponta muitas semelhanças com os “notossúquios”: postura elevada, regiões diferenciadas na coluna, dentição heterodonte, palato secundário relativamente amplo e cavidade nasal relativamente ampla. Para testar as relações filogenéticas dos dois táxons, bem como o próprio monofiletismo dos “notossúquios”, foi construída uma matriz de dados com 27 táxons (incluindo, tanto quanto possível, todos aqueles que já foram ou são considerados “notossúquios”) e 60 caracteres. Com base nos mesmos, foi efetuada uma análise de parcimônia utilizando Paup 3.1.1 (“stepwise addition” - “random”, com 100 repetições e “tree-bisection-reconnection”) e Nona 2.0 (algoritmo heurístico, com 10 replicações e TBR - mult*max*) que apontou uma relação dos dois novos táxons como grupos irmão sucessivos de Notosuchus e Mariliasuchus (Crocodilo II (Crocodilo I (Notosuchus, Mariliasuchus))). Em comparação com outros crocodiliformes do Cretáceo da América do Sul, África, Madagascar e China, é possível assumir que ambos são notossúquios (sensu Pol & Apesteguia, 2005). Em nossa análise, os notossúquios formam um grupo, à exceção de A. buitreraensis, mais proximamente relacionado aos Eusuchia. Na análise ordenada, A. buitreraensis, A. patagonicus e Anatosuchus aparecem mais proximamente relacionados a Eusuchia e Lybicosuchus aloca-se junto a Baurusuchus e Sebecus. Paralelamente, são discutidas análises filogenéticas prévias envolvendo notossúquios, nas quais foram introduzidas modificações, levando a diferentes topologias. A partir disso, propõe-se uma discussão acerca da influência das escolhas e procedimentos de cada autor no resultado final de análises filogenéticas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o objetivo de estabelecer uma metodologia capaz segregar momentos de mercado e de identificar as características predominantes dos investidores atuantes em um determinado mercado financeiro, este trabalho emprega simulações geradas em um Mercado Financeiro Artificial baseado em agentes, utilizando um Algoritmo Genético para ajustar tais simulações ao histórico real observado. Para tanto, uma aplicação foi desenvolvida utilizando-se o mercado de contratos futuros de índice Bovespa. Esta metodologia poderia facilmente ser estendida a outros mercados financeiros através da simples parametrização do modelo. Sobre as bases estabelecidas por Toriumi et al. (2011), contribuições significativas foram atingidas, promovendo acréscimo de conhecimento acerca tanto do mercado alvo escolhido, como das técnicas de modelagem em Mercados Financeiros Artificiais e também da aplicação de Algoritmos Genéticos a mercados financeiros, resultando em experimentos e análises que sugerem a eficácia do método ora proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho primeiramente explora fundamentos teóricos básicos para análise e implementação de algoritmos para a modelagem de séries temporais. A finalidade principal da modelagem de séries temporais será a predição para utilizá-la na arbitragem estatística. As séries utilizadas são retiradas de uma base de histórico do mercado de ações brasileiro. Estratégias de arbitragem estatística, mais especificamente pairs trading, utilizam a característica de reversão à média dos modelos para explorar um lucro potencial quando o módulo do spread está estatisticamente muito afastado de sua média. Além disso, os modelos dinâmicos deste trabalho apresentam parâmetros variantes no tempo que aumentam a sua flexibilidade e adaptabilidade em mudanças estruturais do processo. Os pares do algoritmo de pairs trading são escolhidos selecionando ativos de mesma empresa ou índices e ETFs (Exchange Trade Funds). A validação da escolha dos pares é feita utilizando testes de cointegração. As simulações demonstram os resultados dos testes de cointegração, a variação no tempo dos parâmetros do modelo e o resultado de um portfólio fictício.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo tem como objetivo comparar e combinar diferentes técnicas de projeção para o PIB trimestral brasileiro de 1991 ao segundo trimestre de 2014, utilizando dados agregados, e dados desagregados com pesos fixos e estocásticos. Os modelos desagregados univariados e multivariados, assim como os pesos estocásticos, foram estimados pelo algoritmo Autometrics criado por Doornik (2009), através dos níveis de desagregação disponibilizados pelo IBGE no Sistema de Contas Nacionais. Os modelos agregados foram estimados pelo Autometrics, por Markov-Switching e por modelos estruturais de espaço-estado. A metodologia de comparação de projeções utilizada foi o Model Confidence Set, desenvolvida por Hanse, Lunde e Nason (2011). Foram realizadas duas simulações, sendo a primeira com a análise fora da amostra a partir de 2008, e a segunda a partir de 2000, com horizonte de projeção de até 6 passos à frente. Os resultados sugerem que os modelos desagregados com pesos fixos desempenham melhor nos dois primeiros passos, enquanto nos períodos restantes os modelos da série agregada geram melhores previsões.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho tem como objetivo verificar a existência e a relevância dos Efeitos Calendário em indicadores industriais. São explorados modelos univariados lineares para o indicador mensal da produção industrial brasileira e alguns de seus componentes. Inicialmente é realizada uma análise dentro da amostra valendo-se de modelos estruturais de espaço-estado e do algoritmo de seleção Autometrics, a qual aponta efeito significante da maioria das variáveis relacionadas ao calendário. Em seguida, através do procedimento de Diebold-Mariano (1995) e do Model Confidence Set, proposto por Hansen, Lunde e Nason (2011), são realizadas comparações de previsões de modelos derivados do Autometrics com um dispositivo simples de Dupla Diferença para um horizonte de até 24 meses à frente. Em geral, os modelos Autometrics que consideram as variáveis de calendário se mostram superiores nas projeções de 1 a 2 meses adiante e superam o modelo simples em todos os horizontes. Quando se agrega os componentes de categoria de uso para formar o índice industrial total, há evidências de ganhos nas projeções de prazo mais curto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O palestrante vai debater como o modelo de gestão inaugurado pelo Uber pode ser usado em favor da sociedade. No lugar de uma gestão centralizada, a startup californiana, que com apenas sete anos de existência já é avaliada em US$ 51 bilhões, desenvolveu um algoritmo que gerencia a relação entre fornecedores e consumidores por meio da curadoria dos usuários da plataforma. A ideia abre espaço para a criação de projetos e políticos públicas inovadoras e participativas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação estuda a propagação de crises sobre o sistema financeiro. Mais especi- ficamente, busca-se desenvolver modelos que permitam simular como um determinado choque econômico atinge determinados agentes do sistema financeiro e apartir dele se propagam, transformando-se em um problema sistêmico. A dissertação é dividida em dois capítulos,além da introdução. O primeiro capítulo desenvolve um modelo de propa- gação de crises em fundos de investimento baseado em ciência das redes.Combinando dois modelos de propagação em redes financeiras, um simulando a propagação de perdas em redes bipartites de ativos e agentes financeiros e o outro simulando a propagação de perdas em uma rede de investimentos diretos em quotas de outros agentes, desenvolve-se um algoritmo para simular a propagação de perdas através de ambos os mecanismos e utiliza-se este algoritmo para simular uma crise no mercado brasileiro de fundos de investimento. No capítulo 2,desenvolve-se um modelo de simulação baseado em agentes, com agentes financeiros, para simular propagação de um choque que afeta o mercado de operações compromissadas.Criamos também um mercado artificial composto por bancos, hedge funds e fundos de curto prazo e simulamos a propagação de um choque de liquidez sobre um ativo de risco securitizando utilizado para colateralizar operações compromissadas dos bancos.