1000 resultados para Petróleo Prospecção - Métodos de simulação


Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo dessa dissertação é estabelecer um modelo quantitativo de gestão de riscos estratégicos de um ativo de produção de petróleo, notadamente o valor em risco do seu fluxo de caixa e de sua rentabilidade. Para tanto, foi utilizado um modelo de fluxo de caixa onde a receita operacional foi definida como variável estocástica. A receita operacional foi estimada a partir de uma função de perdas que descreve o volume de produção de petróleo, e de uma trajetória de preços definida por um modelo geométrico browniano sem reversão a média e com volatilidade descrita por um processo GARCH. Os resultados obtidos demonstram que o modelo proposto é capaz de fornecer informações importantes para a gestão de riscos de ativos de produção de petróleo ao passo que permite a quantificação de diferentes fatores de risco que afetam a rentabilidade das operações. Por fim, o modelo aqui proposto pode ser estendido para a avaliação do risco financeiro e operacional de um conjunto de ativos de petróleo, considerando sua estrutura de dependência e a existência de restrições de recursos financeiros, físicos e humanos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neste trabalho abordamos a unitização como uma reinterpretação de cartel, partindo do modelo clássico de Green e Porter. A incerteza geológica é representada por um componente estocástico no custo marginal. Caracterizamos o contrato ótimo e, a partir da estática comparativa, avaliamos a eficiência e a viabilidade da cooperação. O preço e o grau da externalidade afetam positivamente o nível de eficiência do contrato ótimo. Mas enquanto preços elevados viabilizam os acordos, o grau de externalidade elevado pode conduzir a equilíbrios ineficientes ou mesmo inviabilizar a produção. O mesmo resultado ocorre com os custos fixos. Adicionalmente, quanto maior for o número de firmas envolvidas no acordo, menor será a chance de existir um contrato mais eficiente que a regra da captura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O trabalho procura analisar a utilização dos modelos em geral dos modelos de simulação em particular como instrumento para o treinamento de executivos em marketing. Utilizando-se de conceitos e/ou teorias geralmente aceitos na área de marketing, foi elaborado um modelo de simulação que,à luz de dados secundários relevantes da realidade brasileira, pudesse servir como instrumento para (a) treinar executivos na "prática" de marketing, (b) ensinar conceitos e teorias existentes na área de marketing, (c) representar os aspectos relevantes da realidade de marketing, e (d) treinar os executivos de marketing no processo de tomada de decisões. Colocado em teste junto a um grupo selecionado de executivos, o modelo de simulação foi considerado pelos mesmos como sendo um instrumento útil para o treinamento e/ou desenvolvimento de executivos na área de marketing

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abordagens teóricas dominantes no campo da estratégia empresarial (PORTER, 1980; BARNEY, 1991; PISANO e TEECE, 1997), de modo geral, não consideram explicitamente o comportamento corporativo político como um componente do amplo conjunto de elementos que compõem a estrutura dos processos de formulação e implementação estratégica. A pouca ênfase dada ao papel das firmas na seara política resulta em limitações para compreensão do ambiente competitivo e, consequentemente reduz o poder explicativo de estudos que se propõem a desvendar as razões do desempenho diferenciado das organizações. Salorio, Boddewyn e Dahan (2005) reforçam tal perspectiva ao observarem que firmas são organizações econômicas na medida em que em suas transações ponderam custos, benefícios, lucros, market share, mas também, enquanto organizações precisam definir e gerenciar fronteiras, bem como diferenciar e integrar seus membros, os stakerolders e suas operações. Esse envolvimento em um mix de comportamento político-econômico de barganha e não barganha leva à definição das firmas também como organizações políticas. Apesar de tal linha de pensamento ainda ter conotação de novidade para alguns, de reciclagem de antigas ideias para outros, ou, mesmo, parecer se pautar pela tentativa de retomar questões que sempre foram tratadas de forma lateral, Salorio, Boddewyn e Dahan (2005) enfatizam que “the political is always there”. O presente projeto teve objetivo central modelar ambiente simulado para testar antecedentes da atividade política corporativa (HILLMAN, KEIM e SCHULER, 2004), e como objetivos específicos: Modelar um simulador dos ambientes de negócio e político das empresas; aplicar o simulador para gerar dados sobre os antecedentes da participação política; testar antecedentes da participação política como alternativa estratégica em resposta ao baixo desempenho das firmas, a disponibilidade de recursos e a atividade política de concorrentes; testar a interação entre antecedentes de market e nonmarket para explicar a participação política. Com relação aos objetivos, o estudo pode ser caracterizado como explicativo, e quanto aos procedimentos técnicos adotados como de laboratório. O tipo de pesquisa adotado foi o de verificação de hipóteses causais assentada em uma abordagem metodológica quantitativa, cujos dados foram coletados por meio de 12 simulações, estruturadas no formato de um business game, com nove empresas em cada simulação, totalizando 108 unidades de análise. Configuram-se como sujeitos da pesquisa alunos do último ano dos cursos de graduação em administração e economia da Universidade Estadual de Londrina. As análises dos dados foram efetuadas utilizando-se o software STATA para desenvolvimento das regressões, sendo considerado como modelo estatístico a técnica de dados em painel com efeito fixo (WOOLDRIDGE, 2003), visto que o foco do estudo é a análise das informações (decisões/desempenho) das empresas ao longo do tempo. Os resultados indicam que: a) a ineficiência da firma afeta positivamente o investimento em financiamento eleitoral; b) o investimento em ações políticas corporativas ocorre no sentido de complementação às ações de market e não em contraposição, c) a maior propensão em investir em nonmarket está relacionada com desempenho inferior ao da concorrência; d) o aumento do investimento em nonmarket não está relacionado com a ação política mais ativa por parte da concorrência. Não foram encontradas evidências de que firmas com maiores sobras de recursos são mais ativas politicamente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo deste trabalho é estudar estes fatores isolada e interdependente de modo a procurar compor um mecanismo de simulação que permita obter elementos para quantificar as repercussões de medidas isoladas, no restante da estrutura do banco. Uma parcela considerável das informações utilizadas foi obtida a partir de levantamentos contábeis e entrevistas efetuadas em um grande banco comercial. É nossa intenção demonstrar a viabilidade da utilização prática deste modelo na previsão e acompanhamento de resultados, mantendo, a possibilidade de atualizar e testar novas hipóteses.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A descoberta do pré-sal motivou intensa atividade legislativa que alterou o regime sob o qual o petróleo é explorado no Brasil. Neste contexto, foram instituídas mudanças na distribuição das participações governamentais, notadamente no que se refere ao pagamento dos royalties e participações especiais aos Estados e Municípios produtores de petróleo. Representantes de alguns destes Estados, insatisfeitos frente ao novo marco regulatório, ajuizaram Ações Diretas de Inconstitucionalidade (ADI nº 4.917, ADI nº. 4.916, ADI nº. 4.492 e ADI nº. 4.920) perante o Supremo Tribunal Federal, questionando, em suma, a violação ao pacto federativo, ao ato jurídico perfeito, ao direito adquirido, à segurança jurídica e ao princípio da isonomia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The objective of the present work is develop a model to simulate electrical energy networks in transient and stead states, using the software ATP (Alternative Transient Program), able to be a way to join two distinct themes, present in classical methodology planning networks: short circuit analysis and load flow theory. Beyond that, using a tool for relay simulation, this paper intend to use the new developed model to investigate the influence of transient phenomenon in operation of protection relays, and calibrate the enterprise's protections relays. For testing the model, some relays, actually, installed at COSERN were used

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pós-graduação em Agronomia (Energia na Agricultura) - FCA

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Em investigações geofísicas rasas que empregam os métodos eletromagnéticos indutivos mais avançados, alvos com baixo número de indução (Low Induction Number – LIN) produzem anomalias eletromagnéticas muito baixas e de difícil interpretação. Para suprir esta deficiência, neste trabalho são estudados a aplicabilidade de campos eletromagnéticos polarizados e focalizados – POLFOCEM como fonte primária de indução. Os campos E.M. focalizados e polarizados, vertical e horizontalmente, são obtidos pelas combinações vetoriais de pares de dipolos transmissores e, ocorrem na região central entre eles. A focalização é observada nesta região na profundidade de 0,25 do espaçamento entre esses transmissores – L. Portanto, máximos acoplamentos podem ser obtidos através da seleção da polarização de acordo com a geometria do alvo, ocorrendo um aumento na densidade de fluxo magnético sobre ele e, máximas anomalias produzidas. É utilizada uma metodologia numérica para o cômputo dessas anomalias por meio da técnica dos elementos finitos para solução do problema 2,5-D. Em todos os experimentos numéricos são realizadas comparações qualitativas e quantitativas entre as respostas obtidas pelos sistemas POLFOCEM e convencional, o qual emprega um único dipolo como transmissor (dipolo-dipolo). As anomalias produzidas pelo sistema POLFOCEM, em que os dipolos transmissores são acionados simultaneamente, correspondem à soma das anomalias produzidas por cada um desses dipolos independentes, caracterizando, desta forma, a linearidade dos campos eletromagnéticos. Os experimentos numéricos são realizados para alvos prismáticos bidimensionais com três diferentes inclinações, inseridos num semi-espaço resistivo, e para as freqüências das fontes na faixa das ondas de rádio. As anomalias assimétricas no sistema convencional, que se tornam simétricas no sistema POLFOCEM, apresentam valores menores em amplitude. Contudo, aquelas anomalias tanto assimétricas quanto simétricas que se tornam anti-simétricas apresentam valores maiores. Em decorrência dessas diminuições e aumentos nas amplitudes ocorrem rotações nos diagramas de Argand, no sentido horário e anti-horário para alvos com baixos valores de condutividade, respectivamente. Em experimentos de identificação de presença de dois alvos próximos, o sistema convencional é capaz de identificá-los primeiramente, prevalecendo o seu uso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O método de empilhamento sísmico CRS simula seções sísmicas ZO a partir de dados de cobertura múltipla, independente do macro-modelo de velocidades. Para meios 2-D, a função tempo de trânsito de empilhamento depende de três parâmetros, a saber: do ângulo de emergência do raio de reflexão normal (em relação à normal da superfície) e das curvaturas das frentes de onda relacionadas às ondas hipotéticas, denominadas NIP e Normal. O empilhamento CRS consiste na soma das amplitudes dos traços sísmicos em dados de múltipla cobertura, ao longo da superfície definida pela função tempo de trânsito do empilhamento CRS, que melhor se ajusta aos dados. O resultado do empilhamento CRS é assinalado a pontos de uma malha pré-definida na seção ZO. Como resultado tem-se a simulação de uma seção sísmica ZO. Isto significa que para cada ponto da seção ZO deve-se estimar o trio de parâmetros ótimos que produz a máxima coerência entre os eventos de reflexão sísmica. Nesta Tese apresenta-se fórmulas para o método CRS 2-D e para a velocidade NMO, que consideram a topografia da superfície de medição. O algoritmo é baseado na estratégia de otimização dos parâmetros de fórmula CRS através de um processo em três etapas: 1) Busca dos parâmetros, o ângulo de emergência e a curvatura da onda NIP, aplicando uma otimização global, 2) busca de um parâmetro, a curvatura da onda N, aplicando uma otimização global, e 3) busca de três parâmetros aplicando uma otimização local para refinar os parâmetros estimados nas etapas anteriores. Na primeira e segunda etapas é usado o algoritmo Simulated Annealing (SA) e na terceira etapa é usado o algoritmo Variable Metric (VM). Para o caso de uma superfície de medição com variações topográficas suaves, foi considerada a curvatura desta superfície no algoritmo do método de empilhamento CRS 2-D, com aplicação a dados sintéticos. O resultado foi uma seção ZO simulada, de alta qualidade ao ser comparada com a seção ZO obtida por modelamento direto, com uma alta razão sinal-ruído, além da estimativa do trio de parâmetros da função tempo de trânsito. Foi realizada uma nálise de sensibilidade para a nova função de tempo de trânsito CRS em relação à curvatura da superfície de medição. Os resultados demonstraram que a função tempo de trânsito CRS é mais sensível nos pontos-médios afastados do ponto central e para grandes afastamentos. As expressões da velocidade NMO apresentadas foram aplicadas para estimar as velocidades e as profundidades dos refletores para um modelo 2-D com topografia suave. Para a inversão destas velocidades e profundidades dos refletores, foi considerado o algoritmo de inversão tipo Dix. A velocidade NMO para uma superfície de medição curva, permite estimar muito melhor estas velocidades e profundidades dos refletores, que as velocidades NMO referidas as superfícies planas. Também apresenta-se uma abordagem do empilhamento CRS no caso 3-D. neste caso a função tempo de trânsito depende de oito parâmetros. São abordadas cinco estratégias de busca destes parâmetros. A combinação de duas destas estratégias (estratégias das três aproximações dos tempos de trânsito e a estratégia das configurações e curvaturas arbitrárias) foi aplicada exitosamente no empilhamento CRS 3-D de dados sintéticos e reais.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Apresentamos dois métodos de interpretação de dados de campos potenciais, aplicados à prospecção de hidrocarbonetos. O primeiro emprega dados aeromagnéticos para estimar o limite, no plano horizontal, entre a crosta continental e a crosta oceânica. Este método baseia-se na existência de feições geológicas magnéticas exclusivas da crosta continental, de modo que as estimativas das extremidades destas feições são usadas como estimativas dos limites da crosta continental. Para tanto, o sinal da anomalia aeromagnética na região da plataforma, do talude e da elevação continental é amplificado através do operador de continuação analítica para baixo usando duas implementações: o princípio da camada equivalente e a condição de fronteira de Dirichlet. A maior carga computacional no cálculo do campo continuado para baixo reside na resolução de um sistema de equações lineares de grande porte. Este esforço computacional é minimizado através do processamento por janelas e do emprego do método do gradiente conjugado na resolução do sistema de equações. Como a operação de continuação para baixo é instável, estabilizamos a solução através do funcional estabilizador de primeira ordem de Tikhonov. Testes em dados aeromagnéticos sintéticos contaminados com ruído pseudo-aleatório Gaussiano mostraram a eficiência de ambas as implementações para realçar os finais das feições magnéticas exclusivas da crosta continental, permitindo o delineamento do limite desta com a crosta oceânica. Aplicamos a metodologia em suas duas implementações a dados aeromagnéticos reais de duas regiões da costa brasileira: Foz do Amazonas e Bacia do Jequitinhonha. O segundo método delineia, simultaneamente, a topografia do embasamento de uma bacia sedimentar e a geometria de estruturas salinas contidas no pacote sedimentar. Os modelos interpretativos consistem de um conjunto de prismas bidimensionais verticais justapostos, para o pacote sedimentar e de prismas bidimensionais com seções verticais poligonais para as estruturas salinas. Estabilizamos a solução, incorporando características geométricas do relevo do embasamento e das estruturas salinas compatíveis com o ambiente geológico através dos estabilizadores da suavidade global, suavidade ponderada e da concentração de massa ao longo de direções preferenciais, além de vínculos de desigualdade nos parâmetros. Aplicamos o método a dados gravimétricos sintéticos produzidos por fontes 2D simulando bacias sedimentares intracratônicas e marginais apresentando densidade do pacote sedimentar variando com a profundidade segundo uma lei hiperbólica e abrigando domos e almofadas salinas. Os resultados mostraram que o método apresenta potencial para delinear, simultaneamente, as geometrias tanto de almofadas e domos salinos, como de relevos descontínuos do embasamento. Aplicamos o método, também, a dados reais ao longo de dois perfis gravimétricos sobre as Bacias de Campos e do Jequitinhonha e obtivemos interpretações compatíveis com a geologia da área.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A identificação e descrição dos caracteres litológicos de uma formação são indispensáveis à avaliação de formações complexas. Com este objetivo, tem sido sistematicamente usada a combinação de ferramentas nucleares em poços não-revestidos. Os perfis resultantes podem ser considerados como a interação entre duas fases distintas: • Fase de transporte da radiação desde a fonte até um ou mais detectores, através da formação. • Fase de detecção, que consiste na coleção da radiação, sua transformação em pulsos de corrente e, finalmente, na distribuição espectral destes pulsos. Visto que a presença do detector não afeta fortemente o resultado do transporte da radiação, cada fase pode ser simulada independentemente uma da outra, o que permite introduzir um novo tipo de modelamento que desacopla as duas fases. Neste trabalho, a resposta final é simulada combinando soluções numéricas do transporte com uma biblioteca de funções resposta do detector, para diferentes energias incidentes e para cada arranjo específico de fontes e detectores. O transporte da radiação é calculado através do algoritmo de elementos finitos (FEM), na forma de fluxo escalar 2½-D, proveniente da solução numérica da aproximação de difusão para multigrupos da equação de transporte de Boltzmann, no espaço de fase, dita aproximação P1, onde a variável direção é expandida em termos dos polinômios ortogonais de Legendre. Isto determina a redução da dimensionalidade do problema, tornando-o mais compatível com o algoritmo FEM, onde o fluxo dependa exclusivamente da variável espacial e das propriedades físicas da formação. A função resposta do detector NaI(Tl) é obtida independentemente pelo método Monte Carlo (MC) em que a reconstrução da vida de uma partícula dentro do cristal cintilador é feita simulando, interação por interação, a posição, direção e energia das diferentes partículas, com a ajuda de números aleatórios aos quais estão associados leis de probabilidades adequadas. Os possíveis tipos de interação (Rayleigh, Efeito fotoelétrico, Compton e Produção de pares) são determinados similarmente. Completa-se a simulação quando as funções resposta do detector são convolvidas com o fluxo escalar, produzindo como resposta final, o espectro de altura de pulso do sistema modelado. Neste espectro serão selecionados conjuntos de canais denominados janelas de detecção. As taxas de contagens em cada janela apresentam dependências diferenciadas sobre a densidade eletrônica e a fitologia. Isto permite utilizar a combinação dessas janelas na determinação da densidade e do fator de absorção fotoelétrico das formações. De acordo com a metodologia desenvolvida, os perfis, tanto em modelos de camadas espessas quanto finas, puderam ser simulados. O desempenho do método foi testado em formações complexas, principalmente naquelas em que a presença de minerais de argila, feldspato e mica, produziram efeitos consideráveis capazes de perturbar a resposta final das ferramentas. Os resultados mostraram que as formações com densidade entre 1.8 e 4.0 g/cm3 e fatores de absorção fotoelétrico no intervalo de 1.5 a 5 barns/e-, tiveram seus caracteres físicos e litológicos perfeitamente identificados. As concentrações de Potássio, Urânio e Tório, puderam ser obtidas com a introdução de um novo sistema de calibração, capaz de corrigir os efeitos devidos à influência de altas variâncias e de correlações negativas, observadas principalmente no cálculo das concentrações em massa de Urânio e Potássio. Na simulação da resposta da sonda CNL, utilizando o algoritmo de regressão polinomial de Tittle, foi verificado que, devido à resolução vertical limitada por ela apresentada, as camadas com espessuras inferiores ao espaçamento fonte - detector mais distante tiveram os valores de porosidade aparente medidos erroneamente. Isto deve-se ao fato do algoritmo de Tittle aplicar-se exclusivamente a camadas espessas. Em virtude desse erro, foi desenvolvido um método que leva em conta um fator de contribuição determinado pela área relativa de cada camada dentro da zona de máxima informação. Assim, a porosidade de cada ponto em subsuperfície pôde ser determinada convolvendo estes fatores com os índices de porosidade locais, porém supondo cada camada suficientemente espessa a fim de adequar-se ao algoritmo de Tittle. Por fim, as limitações adicionais impostas pela presença de minerais perturbadores, foram resolvidas supondo a formação como que composta por um mineral base totalmente saturada com água, sendo os componentes restantes considerados perturbações sobre este caso base. Estes resultados permitem calcular perfis sintéticos de poço, que poderão ser utilizados em esquemas de inversão com o objetivo de obter uma avaliação quantitativa mais detalhada de formações complexas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Na produção de petróleo é importante o monitoramento dos parâmetros do reservatório (permeabilidade, porosidade, saturação, pressão, etc) para o seu posterior gerenciamento. A variação dos parâmetros dinâmicos do reservatório induz variações na dinâmica do fluxo no reservatório, como por exemplo, perdas na pressão, dificultando o processo de extração do óleo. A injeção de fluidos aumenta a energia interna do reservatório e incrementa a pressão, estimulando o movimento do óleo em direção aos poços de extração. A tomografia eletromagnética poço-a-poço pode se tomar em uma técnica bastante eficaz no monitoramento dos processos de injeção, considerando-se o fato de ser altamente detectável a percolação de fluidos condutivos através das rochas. Esta tese apresenta o resultado de um algoritmo de tomografia eletromagnética bastante eficaz aplicado a dados sintéticos. O esquema de imageamento assume uma simetria cilíndrica em torno de uma fonte constituída por um dipolo magnético. Durante o processo de imageamento foram usados 21 transmissores e 21 receptores distribuídos em dois poços distanciados de 100 metros. O problema direto foi resolvido pelo método dos elementos finitos aplicado à equação de Helmhotz do campo elétrico secundário. O algoritmo resultante é válido para qualquer situação, não estando sujeito às restrições impostas aos algoritmos baseados nas aproximações de Born e Rytov. Por isso, pode ser aplicado eficientemente em qualquer situação, como em meios com contrastes de condutividade elétrica variando de 2 a 100, freqüências de 0.1 a 1000.0 kHz e heterogeneidades de qualquer dimensão. O problema inverso foi resolvido por intermédio do algoritmo de Marquardt estabilizado. A solução é obtida iterativamente. Os dados invertidos, com ruído Gaussiano aditivo, são as componentes em fase e em quadratura do campo magnético vertical. Sem o uso de vínculos o problema é totalmente instável, resultando em imagens completamente borradas. Duas categorias de vínculos foram usadas: vínculos relativos, do tipo suavidade, e vínculos absolutos. Os resultados obtidos mostram a eficiência desses dois tipos de vínculos através de imagens nítidas de alta resolução. Os tomogramas mostram que a resolução é melhor na direção vertical do que na horizontal e que é também função da freqüência. A posição e a atitude da heterogeneidade é bem recuperada. Ficou também demonstrado que a baixa resolução horizontal pode ser atenuada ou até mesmo eliminada por intermédio dos vínculos.