1000 resultados para Simulação em Estatística


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O algoritmo de simulação seqüencial estocástica mais amplamente utilizado é o de simulação seqüencial Gaussiana (ssG). Teoricamente, os métodos estocásticos reproduzem tão bem o espaço de incerteza da VA Z(u) quanto maior for o número L de realizações executadas. Entretanto, às vezes, L precisa ser tão alto que o uso dessa técnica pode se tornar proibitivo. Essa Tese apresenta uma estratégia mais eficiente a ser adotada. O algoritmo de simulação seqüencial Gaussiana foi alterado para se obter um aumento em sua eficiência. A substituição do método de Monte Carlo pela técnica de Latin Hypercube Sampling (LHS), fez com que a caracterização do espaço de incerteza da VA Z(u), para uma dada precisão, fosse alcançado mais rapidamente. A técnica proposta também garante que todo o modelo de incerteza teórico seja amostrado, sobretudo em seus trechos extremos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem o objetivo de realizar uma análise de sensibilidade dos parâmetros operacionais e de projeto de uma usina termelétrica. A análise de sensibilidade serve para indicar qual a importância dessas grandezas no resultado do sistema. A planta modelada é a da Usina Termelétrica Presidente Médici – Fase B, localizada em Candiota, RS, onde cada módulo é capaz de produzir até 160 MW de potência. Para esta planta é apresentado o equacionamento de cada componente do sistema. Destacam-se duas modelagens para a turbina a vapor, usadas para a simulação de seu comportamento em carga parcial, o da Elipse de Stodola e o de Schegliáiev. Ambos os modelos são comparados. Também são apresentados os modos de controle de carga por válvula de estrangulamento, por válvula de bocais e por pressão deslizante. A análise de sensibilidade é feita por meio de três métodos distintos, cujos resultados são comparados. O Método Diferencial utiliza as derivadas parciais para estimar a sensibilidade. O Método de Monte Carlo realiza uma série de avaliações do sistema, com os dados de entrada gerados randomicamente em cada avaliação e análise estatística dos resultados para avaliar a sensibilidade das respostas. É desenvolvido neste trabalho o Método da Transformada de Fourier, que gera os dados de forma senoidal e utiliza a transformada de Fourier para medir as sensibilidades. A medida da sensibilidade é feita através de dois índices. O índice de importância é a derivada parcial de um resultado em relação a um parâmetro, adimensionalizado pelas médias das variáveis, e o índice de sensibilidade é a composição fracional da variância de um resultado. Como conclusão, observa-se que os modelos para operação em carga parcial da turbina de Schegliáiev e de Stodola produzem praticamente os mesmos resultados. Os três métodos de análise de sensibilidade conduzem aos mesmos índices de sensibilidade no caso estudado. A ordenação da importância dos parâmetros estudados é idêntica quando se usa tanto o índice de importância quanto o de sensibilidade, mesmo seus valores sejam diferentes para cada parâmetros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Seguros de carteiras proporcionam aos gestores limitar o risco de downside sem renunciar a movimentos de upside. Nesta dissertação, propomos um arcabouço de otimização de seguro de carteira a partir de um modelo híbrido frequentista-Bayesiano com uso de derivativos. Obtemos a distribuição conjunta de retornos regulares através de uma abordagem estatística frequentista, uma vez removidos os outliers da amostra. A distribuição conjunta dos retornos extremos, por sua vez, é modelada através de Redes Bayesianas, cuja topologia contempla os eventos que o gestor considera crítico ao desempenho da carteira. Unindo as distribuições de retornos regulares e extremos, simulamos cenários futuros para a carteira. O seguro é, então, otimizado através do algoritmo Evolução Diferencial. Mostramos uma aplicação passo a passo para uma carteira comprada em ações do Ibovespa, utilizando dados de mercado entre 2008 e 2012.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Abordagens teóricas dominantes no campo da estratégia empresarial (PORTER, 1980; BARNEY, 1991; PISANO e TEECE, 1997), de modo geral, não consideram explicitamente o comportamento corporativo político como um componente do amplo conjunto de elementos que compõem a estrutura dos processos de formulação e implementação estratégica. A pouca ênfase dada ao papel das firmas na seara política resulta em limitações para compreensão do ambiente competitivo e, consequentemente reduz o poder explicativo de estudos que se propõem a desvendar as razões do desempenho diferenciado das organizações. Salorio, Boddewyn e Dahan (2005) reforçam tal perspectiva ao observarem que firmas são organizações econômicas na medida em que em suas transações ponderam custos, benefícios, lucros, market share, mas também, enquanto organizações precisam definir e gerenciar fronteiras, bem como diferenciar e integrar seus membros, os stakerolders e suas operações. Esse envolvimento em um mix de comportamento político-econômico de barganha e não barganha leva à definição das firmas também como organizações políticas. Apesar de tal linha de pensamento ainda ter conotação de novidade para alguns, de reciclagem de antigas ideias para outros, ou, mesmo, parecer se pautar pela tentativa de retomar questões que sempre foram tratadas de forma lateral, Salorio, Boddewyn e Dahan (2005) enfatizam que “the political is always there”. O presente projeto teve objetivo central modelar ambiente simulado para testar antecedentes da atividade política corporativa (HILLMAN, KEIM e SCHULER, 2004), e como objetivos específicos: Modelar um simulador dos ambientes de negócio e político das empresas; aplicar o simulador para gerar dados sobre os antecedentes da participação política; testar antecedentes da participação política como alternativa estratégica em resposta ao baixo desempenho das firmas, a disponibilidade de recursos e a atividade política de concorrentes; testar a interação entre antecedentes de market e nonmarket para explicar a participação política. Com relação aos objetivos, o estudo pode ser caracterizado como explicativo, e quanto aos procedimentos técnicos adotados como de laboratório. O tipo de pesquisa adotado foi o de verificação de hipóteses causais assentada em uma abordagem metodológica quantitativa, cujos dados foram coletados por meio de 12 simulações, estruturadas no formato de um business game, com nove empresas em cada simulação, totalizando 108 unidades de análise. Configuram-se como sujeitos da pesquisa alunos do último ano dos cursos de graduação em administração e economia da Universidade Estadual de Londrina. As análises dos dados foram efetuadas utilizando-se o software STATA para desenvolvimento das regressões, sendo considerado como modelo estatístico a técnica de dados em painel com efeito fixo (WOOLDRIDGE, 2003), visto que o foco do estudo é a análise das informações (decisões/desempenho) das empresas ao longo do tempo. Os resultados indicam que: a) a ineficiência da firma afeta positivamente o investimento em financiamento eleitoral; b) o investimento em ações políticas corporativas ocorre no sentido de complementação às ações de market e não em contraposição, c) a maior propensão em investir em nonmarket está relacionada com desempenho inferior ao da concorrência; d) o aumento do investimento em nonmarket não está relacionado com a ação política mais ativa por parte da concorrência. Não foram encontradas evidências de que firmas com maiores sobras de recursos são mais ativas politicamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é estudar estes fatores isolada e interdependente de modo a procurar compor um mecanismo de simulação que permita obter elementos para quantificar as repercussões de medidas isoladas, no restante da estrutura do banco. Uma parcela considerável das informações utilizadas foi obtida a partir de levantamentos contábeis e entrevistas efetuadas em um grande banco comercial. É nossa intenção demonstrar a viabilidade da utilização prática deste modelo na previsão e acompanhamento de resultados, mantendo, a possibilidade de atualizar e testar novas hipóteses.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No presente estudo, são apresentadas soluções numéricas de problemas de Engenharia, na área de Dinâmica dos Fluidos Computacional, envolvendo fluidos viscosos, em escoamentos incompressíveis, isotérmicos e não isotérmicos, em regime laminar e turbulento, podendo envolver transporte de massa. Os principais objetivos deste trabalho são a formulação e a aplicação de uma estratégia de adaptação automática de malhas e a inclusão de modelos de viscosidade turbulenta, integrados com um algoritmo utilizado para simular escoamentos de fluidos viscosos bi e tridimensionais, no contexto de malhas não estruturadas. O estudo é dirigido no sentido de aumentar o conhecimento a respeito das estruturas de escoamentos turbulentos e de estudar os efeitos físicos no transporte de quantidades escalares propiciando, através de técnicas de adaptação automática de malhas, a obtenção de soluções numéricas precisas a um custo computacional otimizado. As equações de conservação de massa, de balanço de quantidade de movimento e de quantidade escalar filtradas são utilizadas para simular as grandes escalas de escoamentos turbulentos e, para representar as escalas submalha, são utilizados dois modelos de viscosidade turbulenta: o modelo de Smagorinsky clássico e o modelo dinâmico. Para obter soluções numéricas com precisão, é desenvolvida e implementada uma estratégia de adaptação automática de malhas, a qual é realizada simultaneamente e interativamente com a obtenção da solução. O estudo do comportamento da solução numérica é fundamentado em indicadores de erro, com o propósito de mapear as regiões onde certos fenômenos físicos do escoamento ocorrem com maior intensidade e de aplicar nestas regiões um esquema de adaptação de malhas. A adaptação é constituída por processos de refinamento/desrefinamento e por um processo de suavização laplaciana. Os procedimentos para a implementação dos modelos de viscosidade turbulenta e a estratégia de adaptação automática de malhas são incorporados ao código computacional de elementos finitos tridimensionais, o qual utiliza elementos tetraédricos lineares. Aplicações de escoamentos de fluidos viscosos, incompressíveis, isotérmicos e não isotérmicos em regime laminar e turbulento são simuladas e os resultados são apresentados e comparados com os obtidos numérica ou experimentalmente por outros autores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A transição à turbulência em uma camada de mistura estavelmente estratificada é de grande interesse para uma variedade de problemas geofísicos e de engenharia. Esta transição é controlada pela competição entre o cisalhamento do escoamento de base e as forças de empuxo, devido à estratificação em densidade do ambiente. Os efeitos do empuxo atuam no escoamento reduzindo a taxa de crescimento das perturbações e retardando a transição à turbulência, enquanto o cisalhamento fornece energia cinética ao escoamento. O presente trabalho investiga a natureza da transição à turbulência em uma camada de mistura temporal estavelmente estratificada através de Simulação Numérica Direta (DNS) e Simulação de Grandes Escalas (LES). O propósito da investigação é analisar o efeito da estratificação estável no desenvolvimento da instabilidade de Kelvin-Helmholtz (K-H) e na formação dos vórtices longitudinais, que se formam após a saturação dos turbilhões primários de K-H. Além deste propósito, é examinado, utilizando de DNS e LES, o desenvolvimento das instabilidades secundárias de K-H na camada baroclínica. Os testes numéricos tridimensionais são realizados com diferentes tipos de condições iniciais para a flutuação de velocidade transversal, enquanto uma condição forçada é usada para as outras duas componentes de flutuação de velocidade. Em particular, o efeito do comprimento transversal do domínio de cálculo é testado empregando diferentes comprimentos, enquanto são usadas as mesmas dimensões para a direção longitudinal e vertical. As simulações bidimensionais mostram que o aumento da estratificação inibe o processo de emparelhamento, reduz a troca de energia entre os turbilhões de K-H e o escoamento, atenua a instabilidade de K-H e diminui o fluxo vertical de massa. A instabilidade secundária do tipo K-H é identtificada na camada baroclínica para Re ¸ 500 quando há o processo de emparelhamento dos vórtices simulados. Na simulação a Re = 500, a instabilidade secundária de K-H aparece tanto para Ri = 0.07 (fraca estratificação) como para Ri = 0.167 (forte estratificação). Os resultados tridimensionais demonstram que os vórtices longitudinais são claramente formados na camada a Ri = 0. Por outro lado, nos casos estratificados os vórtices são enfraquecidos, devido ao gradiente longitudinal de densidade, que diminui a vorticidade nos turbilhões de K-H enquanto aumenta na região entre eles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As operações de alta frequência (High-Frequency Trading - HFT) estão crescendo cada vez mais na BOVESPA (Bolsa de Valores de São Paulo), porém seu volume ainda se encontra muito atrás do volume de operações similares realizadas em outras bolsas de relevância internacional. Este trabalho pretende criar oportunidades para futuras aplicações e pesquisas nesta área. Visando aplicações práticas, este trabalho foca na aplicação de um modelo que rege a dinâmica do livro de ordens a dados do mercado brasileiro. Tal modelo é construído com base em informações do próprio livro de ordens, apenas. Depois de construído o modelo, o mesmo é utilizado em uma simulação de uma estratégia de arbitragem estatística de alta frequência. A base de dados utilizada para a realização deste trabalho é constituída pelas ordens lançadas na BOVESPA para a ação PETR4.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O tema turbiditos tem causado muita controvérsia nos últimos anos. A nosso ver, isto ocorre principalmente devido à diminuição das pesquisas sobre os mecanismos que envolvem a iniciação, o transporte e a deposição deste tipo de rocha. A proposta deste trabalho é avaliar o potencial da simulação física de correntes de turbidez em prever e explicar feições sedimentares em seus depósitos. Foi escolhido como protótipo um sistema turbidítico antigo situado na margem oriental brasileira. A geometria complexa do protótipo foi simplificada para construção do modelo nas instalações do Pavilhão Fluvial do Instituto de Pesquisas Hidráulicas. Foram desenvolvidos doze ensaios onde as observações realizadas sofisticaram-se a partir dos conhecimentos adquiridos nas etapas anteriores. Como resultado dos experimentos identificaram-se novos aspectos geométricos e dinâmicos das correntes de densidade não-conservativas e suas conseqüências na sedimentação. Constatou-se um caráter ondulatório no fluxo, que teve sua origem associada à geração de ondas internas às correntes associadas ao desprendimento de vórtices a partir da cabeça da corrente e sua propagação ao longo da porção superior da corrente. Esta dinâmica implica mudanças na taxa de sedimentação ou mesmo erosão pela corrente, associadas a variações da amplitude e freqüência daquelas ondas. Na cabeça da corrente, verificou-se uma distribuição homogênea de sedimento em suspensão desde a base até o topo da corrente. No corpo ela se divide em duas camadas, uma basal com maior concentração de sedimentos e outra, superior marcada pela expansão do fluxo. Nas quebras de declive do modelo, que ocorrem no meio do canal e no ponto em que a corrente perde o confinamento, foram observadas acelerações localizadas no fluxo. Dentre os parâmetros analisados nos experimentos, constatou-se que a vazão de alimentação tem grande influência nas características dos depósitos. De um modo geral, um aumento da vazão implica um deslocamento do pico deposicional no sentido da corrente e um aumento no conteúdo de frações mais grossas. Constatou-se, nos sedimentos depositados no canal, uma distribuição seqüenciada de formas de leito, que varia entre ripples de crista reta e ripples lingüóides. Reconheceu-se uma correlação entre a amplitude e o comprimento nestas formas de leito. Identificou-se em todos os casos em que houve o extravasamento da corrente a formação de ripples na lateral do canal com cristas lineares que indicam uma direção do fluxo próxima à que ocorre no canal. Foram desenvolvidos depósitos alongados no sentido do fluxo na área onde a corrente perde o confinamento. Observou-se uma grande similaridade entre os depósitos gerados nos experimentos e aqueles identificados em sistemas turbidíticos atuais e do registro geológico, tanto em afloramentos como em dados de subsuperfície.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Essa dissertação tem como objetivo a modelagem, implementação e a simulação de um mercado de leilão duplo artificial utilizando a abordagem multiagente. Mercado de leilão duplo permite que ofertas de compra e de venda possam ser feitas a qualquer momento e de forma contínua. As bolsas de Nova Iorque (NYSE) e de Chicago (CME) são exemplos deste tipo de leilão. Mercados artificiais são modelos que têm o objetivo de capturar as propriedades dos mercados reais para reproduzir e analisar a dinâmica do mercado através de experimentos computacionais. Assim como no mercado real, o modelo propõe que os agentes interagem entre si assincronamente em sessões de negociações contínuos. Estas últimas características do modelo são viabilizadas através do uso de técnicas e arcabouços tecnológicos que são atualmente utilizados nos mercados reais. Neste trabalho, são investigados os comportamentos do mercado artificial para diferentes grupos de agentes e parâmetros. Ao longo dos experimentos foram constatados que o volume de negociação e a volatilidade dos preços, por exemplo, são diretamente proporcionais ao orçamento dos agentes. Também foram identificados alguns fatos estilizados nas séries de preços geradas a partir do mercado artificial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho consiste na aplicação da simulação computacional como método de aprofundamento do estudo de mecanismos de leilões aplicados na alocação do direito de exploração das reservas de petróleo da camada do pré-sal. A camada do pré-sal está localizada na costa brasileira e apresenta um grande potencial em termos de reserva de óleo e gás. A função lance aplicada para os participantes criados computacionalmente foi estimada com base em dados experimentais e segue uma função exponencial. A simulação possibilita reproduzir o modelo de leilão considerando todas as características e parâmetros dos experimentos sem incorrer no custo da realização de novas sessões de leilão com participantes reais. Os leilões estudados foram o leilão de valores privados de 1° preço e o leilão de valores privados de 2° preço. Através dos resultados obtidos identificou-se que o leilão de valores privados de 1° preço é menos arriscado que o leilão de valores privados de 2° preço; no leilão com simetria, o Princípio de Equivalência de Receita é válido; a eficiência observada é menor em leilões assimétricos; o leilão de 2° preço comparado com o de 1° preço apresenta um tradeoff entre a eficiência e a receita do governo; e que considerando o aprendizado dos participantes, não se observam alterações significativas nas estatísticas analisadas à medida que os participantes se tornam mais experientes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Outliers são observações que parecem ser inconsistentes com as demais. Também chamadas de valores atípicos, extremos ou aberrantes, estas inconsistências podem ser causadas por mudanças de política ou crises econômicas, ondas inesperadas de frio ou calor, erros de medida ou digitação, entre outras. Outliers não são necessariamente valores incorretos, mas, quando provenientes de erros de medida ou digitação, podem distorcer os resultados de uma análise e levar o pesquisador à conclusões equivocadas. O objetivo deste trabalho é estudar e comparar diferentes métodos para detecção de anormalidades em séries de preços do Índice de Preços ao Consumidor (IPC), calculado pelo Instituto Brasileiro de Economia (IBRE) da Fundação Getulio Vargas (FGV). O IPC mede a variação dos preços de um conjunto fixo de bens e serviços componentes de despesas habituais das famílias com nível de renda situado entre 1 e 33 salários mínimos mensais e é usado principalmente como um índice de referência para avaliação do poder de compra do consumidor. Além do método utilizado atualmente no IBRE pelos analistas de preços, os métodos considerados neste estudo são: variações do Método do IBRE, Método do Boxplot, Método do Boxplot SIQR, Método do Boxplot Ajustado, Método de Cercas Resistentes, Método do Quartil, do Quartil Modificado, Método do Desvio Mediano Absoluto e Algoritmo de Tukey. Tais métodos foram aplicados em dados pertencentes aos municípios Rio de Janeiro e São Paulo. Para que se possa analisar o desempenho de cada método, é necessário conhecer os verdadeiros valores extremos antecipadamente. Portanto, neste trabalho, tal análise foi feita assumindo que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers. O Método do IBRE é bastante correlacionado com os preços alterados ou descartados pelos analistas. Sendo assim, a suposição de que os preços alterados ou descartados pelos analistas são os verdadeiros valores extremos pode influenciar os resultados, fazendo com que o mesmo seja favorecido em comparação com os demais métodos. No entanto, desta forma, é possível computar duas medidas através das quais os métodos são avaliados. A primeira é a porcentagem de acerto do método, que informa a proporção de verdadeiros outliers detectados. A segunda é o número de falsos positivos produzidos pelo método, que informa quantos valores precisaram ser sinalizados para um verdadeiro outlier ser detectado. Quanto maior for a proporção de acerto gerada pelo método e menor for a quantidade de falsos positivos produzidos pelo mesmo, melhor é o desempenho do método. Sendo assim, foi possível construir um ranking referente ao desempenho dos métodos, identificando o melhor dentre os analisados. Para o município do Rio de Janeiro, algumas das variações do Método do IBRE apresentaram desempenhos iguais ou superiores ao do método original. Já para o município de São Paulo, o Método do IBRE apresentou o melhor desempenho. Em trabalhos futuros, espera-se testar os métodos em dados obtidos por simulação ou que constituam bases largamente utilizadas na literatura, de forma que a suposição de que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers não interfira nos resultados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A situação do saneamento no Brasil é alarmante. Os serviços de água e esgotamento sanitário são prestados adequadamente somente para 59,4% e 39,7%, respectivamente, da população brasileira. Para mudar este quadro, estima-se que sejam necessários R$ 304 bilhões em investimentos. Parte desse volume terá que vir da iniciativa privada e a estruturação de parcerias público privadas é uma das formas de atingir este objetivo. Nestes projetos é comum o setor público oferecer garantias ao parceiro privado para assegurar a viabilidade do empreendimento. O presente trabalho apresenta um modelo para valoração destas garantias, utilizando como estudos de caso as PPP de esgoto da região metropolitana de Recife e do Município de Goiana. O resultado obtido mostrou a importância desta valoração, uma vez que dependendo do nível de garantia oferecida o valor presente dos desembolsos previstos para o setor público variou de zero a até R$ 204 milhões.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o objetivo de estabelecer uma metodologia capaz segregar momentos de mercado e de identificar as características predominantes dos investidores atuantes em um determinado mercado financeiro, este trabalho emprega simulações geradas em um Mercado Financeiro Artificial baseado em agentes, utilizando um Algoritmo Genético para ajustar tais simulações ao histórico real observado. Para tanto, uma aplicação foi desenvolvida utilizando-se o mercado de contratos futuros de índice Bovespa. Esta metodologia poderia facilmente ser estendida a outros mercados financeiros através da simples parametrização do modelo. Sobre as bases estabelecidas por Toriumi et al. (2011), contribuições significativas foram atingidas, promovendo acréscimo de conhecimento acerca tanto do mercado alvo escolhido, como das técnicas de modelagem em Mercados Financeiros Artificiais e também da aplicação de Algoritmos Genéticos a mercados financeiros, resultando em experimentos e análises que sugerem a eficácia do método ora proposto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho primeiramente explora fundamentos teóricos básicos para análise e implementação de algoritmos para a modelagem de séries temporais. A finalidade principal da modelagem de séries temporais será a predição para utilizá-la na arbitragem estatística. As séries utilizadas são retiradas de uma base de histórico do mercado de ações brasileiro. Estratégias de arbitragem estatística, mais especificamente pairs trading, utilizam a característica de reversão à média dos modelos para explorar um lucro potencial quando o módulo do spread está estatisticamente muito afastado de sua média. Além disso, os modelos dinâmicos deste trabalho apresentam parâmetros variantes no tempo que aumentam a sua flexibilidade e adaptabilidade em mudanças estruturais do processo. Os pares do algoritmo de pairs trading são escolhidos selecionando ativos de mesma empresa ou índices e ETFs (Exchange Trade Funds). A validação da escolha dos pares é feita utilizando testes de cointegração. As simulações demonstram os resultados dos testes de cointegração, a variação no tempo dos parâmetros do modelo e o resultado de um portfólio fictício.