7 resultados para estimative
em Universidade Federal do Pará
Resumo:
Esta tese apresenta duas contribuições para a interpretação geofísica, voltadas ao Método Magnetotelúrico. A primeira trata de uma nova abordagem para a interpretação MT, denominada MÉTODO DESCRITIVO-GEOLÓGICO (DesG), em alusão à incorporação explícita de informação a priori de correlação fácil com a descrição geológica tradicional. O intérprete define por meio de elementos geométricos (pontos e linhas) o arcabouço de feições geológicas bem como fornece valores de resistividade aos corpos geológicos presumidos. O método estima a distribuição de resistividade subsuperficial em termos de fontes anômalas próximas aos elementos geométricos, ajustando as respostas produzidas por estes corpos às medidas de campo. A solução obtida fornece então informações que podem auxiliar na modificação de algumas informações a priori imprecisas, permitindo que sucessivas inversões sejam realizadas até que a solução ajuste os dados e faça sentido geológico. Entre as características relevantes do método destacam-se: (i) os corpos podem apresentar resistividade maior ou menor do que a resistividade do meio encaixante, (ii) vários meios encaixantes contendo ou não corpos anômalos podem ser cortados pelo perfil e (iii) o contraste de resistividade entre corpo e encaixante pode ser abrupto ou gradativo. A aplicação do método a dados sintéticos evidencia, entre outras vantagens, a sua potencialidade para estimar o mergulho de falhas com inclinação variável, que merece especial interesse em Tectônica, e delinear soleiras de diabásio em bacias sedimentares, um sério problema para a prospecção de petróleo. O método permite ainda a interpretação conjunta das causas do efeito estático e das fontes de interesse. A aplicação a dados reais é ilustrada tomando-se como exemplo dados do COPROD2, cuja inversão produziu soluções compatíveis com o conhecimento geológico sobre a área. A segunda contribuição refere-se a desenho de experimento geofísico. Por meio de indicadores diversos, em especial a matriz densidade de informação, é mostrado que a resolução teórica dos dados pode ser estudada, que guia o planejamento da prospecção. A otimização do levantamento permite determinar os períodos e as posições das estações de medida mais adequados ao delineamento mais preciso de corpos cujas localizações são conhecidas aproximadamente.
Resumo:
Diversas atividades de planejamento e operação em sistemas de energia elétrica dependem do conhecimento antecipado e preciso da demanda de carga elétrica. Por este motivo, concessionárias de geração e distribuição de energia elétrica cada vez mais fazem uso de tecnologias de previsão de carga. Essas previsões podem ter um horizonte de curtíssimo, curto, médio ou longo prazo. Inúmeros métodos estatísticos vêm sendo utilizados para o problema de previsão. Todos estes métodos trabalham bem em condições normais, entretanto deixam a desejar em situações onde ocorrem mudanças inesperadas nos parâmetros do ambiente. Atualmente, técnicas baseadas em Inteligência Computacional vêm sendo apresentadas na literatura com resultados satisfatórios para o problema de previsão de carga. Considerando então a importância da previsão da carga elétrica para os sistemas de energia elétrica, neste trabalho, uma nova abordagem para o problema de previsão de carga via redes neurais Auto-Associativas e algoritmos genéticos é avaliada. Três modelos de previsão baseados em Inteligência Computacional são também apresentados tendo seus desempenhos avaliados e comparados com o sistema proposto. Com os resultados alcançados, pôde-se verificar que o modelo proposto se mostrou satisfatório para o problema de previsão, reforçando assim a aplicabilidade de metodologias de inteligência computacional para o problema de previsão de cargas.
Resumo:
O método de empilhamento sísmico CRS simula seções sísmicas ZO a partir de dados de cobertura múltipla, independente do macro-modelo de velocidades. Para meios 2-D, a função tempo de trânsito de empilhamento depende de três parâmetros, a saber: do ângulo de emergência do raio de reflexão normal (em relação à normal da superfície) e das curvaturas das frentes de onda relacionadas às ondas hipotéticas, denominadas NIP e Normal. O empilhamento CRS consiste na soma das amplitudes dos traços sísmicos em dados de múltipla cobertura, ao longo da superfície definida pela função tempo de trânsito do empilhamento CRS, que melhor se ajusta aos dados. O resultado do empilhamento CRS é assinalado a pontos de uma malha pré-definida na seção ZO. Como resultado tem-se a simulação de uma seção sísmica ZO. Isto significa que para cada ponto da seção ZO deve-se estimar o trio de parâmetros ótimos que produz a máxima coerência entre os eventos de reflexão sísmica. Nesta Tese apresenta-se fórmulas para o método CRS 2-D e para a velocidade NMO, que consideram a topografia da superfície de medição. O algoritmo é baseado na estratégia de otimização dos parâmetros de fórmula CRS através de um processo em três etapas: 1) Busca dos parâmetros, o ângulo de emergência e a curvatura da onda NIP, aplicando uma otimização global, 2) busca de um parâmetro, a curvatura da onda N, aplicando uma otimização global, e 3) busca de três parâmetros aplicando uma otimização local para refinar os parâmetros estimados nas etapas anteriores. Na primeira e segunda etapas é usado o algoritmo Simulated Annealing (SA) e na terceira etapa é usado o algoritmo Variable Metric (VM). Para o caso de uma superfície de medição com variações topográficas suaves, foi considerada a curvatura desta superfície no algoritmo do método de empilhamento CRS 2-D, com aplicação a dados sintéticos. O resultado foi uma seção ZO simulada, de alta qualidade ao ser comparada com a seção ZO obtida por modelamento direto, com uma alta razão sinal-ruído, além da estimativa do trio de parâmetros da função tempo de trânsito. Foi realizada uma nálise de sensibilidade para a nova função de tempo de trânsito CRS em relação à curvatura da superfície de medição. Os resultados demonstraram que a função tempo de trânsito CRS é mais sensível nos pontos-médios afastados do ponto central e para grandes afastamentos. As expressões da velocidade NMO apresentadas foram aplicadas para estimar as velocidades e as profundidades dos refletores para um modelo 2-D com topografia suave. Para a inversão destas velocidades e profundidades dos refletores, foi considerado o algoritmo de inversão tipo Dix. A velocidade NMO para uma superfície de medição curva, permite estimar muito melhor estas velocidades e profundidades dos refletores, que as velocidades NMO referidas as superfícies planas. Também apresenta-se uma abordagem do empilhamento CRS no caso 3-D. neste caso a função tempo de trânsito depende de oito parâmetros. São abordadas cinco estratégias de busca destes parâmetros. A combinação de duas destas estratégias (estratégias das três aproximações dos tempos de trânsito e a estratégia das configurações e curvaturas arbitrárias) foi aplicada exitosamente no empilhamento CRS 3-D de dados sintéticos e reais.
Resumo:
Esta dissertação apresenta um método para estimar a orientação de fratura de um meio partindo do pressuposto que este se comporta efetivamente como um meio transversalmente isotrópico (TI). Desta forma, a orientação de fratura é obtida a partir da estimativa do eixo de simetria de um meio TI. Esta estimativa é obtida a partir dos vetores de vagarosidade e polarização de ondas qP medidos em experimentos VSP Walkaway. O processo de inversão é baseado em equações linearizadas dos vetores de vagarosidade e polarização de ondas qP e os parâmetros fracamente anisotrópicos do meio. São apresentados testes numéricos, em que a sensibilidade a fatores como grau de anisotropia, geometria do levantamento, tipo de onda utilizado e nível de ruído são analisados. São também apresentados os resultados para um conjunto de dados reais.
Resumo:
A presente Dissertação de Mestrado tem como objetivo o estudo do problema de inversão sísmica baseada em refletores planos para arranjo fonte-comum (FC) e ponto-médiocomum (PMC). O modelo direto é descrito por camadas homogêneas, isotrópicas com interfaces plano-horizontais. O problema é relacionado ao empilhamento NMO baseado na otimização da função semblance, para seções PMC corrigidas de sobretempo normal (NMO). O estudo foi baseado em dois princípios. O primeiro princípio adotado foi de combinar dois grupos de métodos de inversão: um Método Global e um Método Local. O segundo princípio adotado foi o de cascata, segundo a teoria Wichert-Herglotz-Bateman, que estabelece que para conhecer uma camada inferior tem-se que conhecer primeiro a camada superior (dissecação). A aplicação do estudo é voltada à simulação sísmica de Bacia Sedimentar do Solimões e de Bacia Marinha para se obter uma distribuição local 1D de velocidades e espessuras para a subsuperfície em horizontes alvo. Sendo assim, limitamos a inversão entre 4 e 11 refletores, uma vez que na prática a indústria limita uma interpretação realizada apenas em número equivalente de 3 a 4 refletores principais. Ressalta-se que este modelo é aplicável como condição inicial ao imageamento de seções sísmicas em regiões geologicamente complexas com variação horizontal suave de velocidades. Os dados sintéticos foram gerados a partir dos modelos relacionados a informações geológicas, o que corresponde a uma forte informação a priori no modelo de inversão. Para a construção dos modelos relacionados aos projetos da Rede Risco Exploratório (FINEP) e de formação de recursos humanos da ANP em andamento, analisamos os seguintes assuntos relevantes: (1) Geologia de bacias sedimentares terrestre dos Solimões e ma rinha (estratigráfica, estrutural, tectônica e petrolífera); (2) Física da resolução vertical e horizontal; e (3) Discretização temporal-espacial no cubo de multi-cobertura. O processo de inversão é dependente do efeito da discretização tempo-espacial do campo de ondas, dos parâmetros físicos do levantamento sísmico, e da posterior reamostragem no cubo de cobertura múltipla. O modelo direto empregado corresponde ao caso do operador do empilhamento NMO (1D), considerando uma topografia de observação plana. O critério básico tomado como referência para a inversão e o ajuste de curvas é a norma 2 (quadrática). A inversão usando o presente modelo simples é computacionalmente atrativa por ser rápida, e conveniente por permitir que vários outros recursos possam ser incluídos com interpretação física lógica; por exemplo, a Zona de Fresnel Projetada (ZFP), cálculo direto da divergência esférica, inversão Dix, inversão linear por reparametrização, informações a priori, regularização. A ZFP mostra ser um conceito út il para estabelecer a abertura da janela espacial da inversão na seção tempo-distância, e representa a influência dos dados na resolução horizontal. A estimativa da ZFP indica uma abertura mínima com base num modelo adotado, e atualizável. A divergência esférica é uma função suave, e tem base física para ser usada na definição da matriz ponderação dos dados em métodos de inversão tomográfica. A necessidade de robustez na inversão pode ser analisada em seções sísmicas (FC, PMC) submetida a filtragens (freqüências de cantos: 5;15;75;85; banda-passante trapezoidal), onde se pode identificar, comparar e interpretar as informações contidas. A partir das seções, concluímos que os dados são contaminados com pontos isolados, o que propõe métodos na classe dos considerados robustos, tendo-se como referência a norma 2 (quadrados- mínimos) de ajuste de curvas. Os algoritmos foram desenvolvidos na linguagem de programação FORTRAN 90/95, usando o programa MATLAB para apresentação de resultados, e o sistema CWP/SU para modelagem sísmica sintética, marcação de eventos e apresentação de resultados.
Resumo:
No campo da perfilagem de poço existe um grande interesse voltado para as técnicas que melhorem a resolução vertical das respostas das ferramentas. Neste trabalho, optamos por desenvolver uma técnica de aumento de resolução vertical dos perfis obtidos com a ferramenta de indução denominada na bibliografia de 6FF40, através de um algoritmo que utiliza as técnicas de estimativa dos mínimos quadrados. Este método torna possível o processamento dos dados registrados de uma maneira computacionalmente eficiente. O algoritmo apresentado necessita apenas dos dados registrados, dos valores adotados como coeficientes da ferramenta, e de uma estimativa dos ruídos existentes. Como ilustração foram utilizados trechos de um perfil de uma área que reconhecidamente apresenta problemas relacionados à resolução vertical da ferramenta 6FF40. Com o objetivo de verificar a eficiência do algoritmo utilizado, os perfis processados foram correlacionados com os perfis de raio gama e com os perfis esféricos focalizados do poço 7-LOR-18-RN, perfis estes que possuem resolução vertical maior do que os perfis convencionais de indução, comprovando a individualização das camadas delgadas que antes do processamento não eram facilmente reconhecidas no perfil original. O algoritmo foi também testado com dados sintéticos demonstrando sua eficiência na recuperação de valores mais representativos para Rt.
Resumo:
Os testes Colour Assessment and Diagnosis (CAD) e Cambridge Colour Test (CCT) têm sido amplamente utilizados em pesquisas básicas e clínicas, devido à alta sensibilidade e especificidade de seus resultados. Estes testes utilizam diferentes paradigmas de estimulação para estimar os limiares de discriminação de cor. Pouco se sabe sobre a relação de cada paradigma na avaliação da discriminação de cor nesses testes. Sendo assim, este trabalho objetiva comparar os parâmetros de avaliação da discriminação de cor estimados pelos testes CAD e CCT em sujeitos tricromatas e com discromatopsia congênita. Foram avaliados 59 sujeitos tricromatas e 38 sujeitos discromatópsicos (16 protans, 22 deutans) com idade média de 26,32 ± 8,9 anos. Foram testados 66 sujeitos nos testes CAD e CCT, 29 sujeitos no teste CAD e 2 sujeitos no teste CCT. O fenótipo da visão de cores de todos os sujeitos foi determinado através de uma bateria de testes psicofísicos e a estimativa dos limiares de discriminação de cor foi avaliada pelos testes CAD e CCT. Os dados de limiares de discriminação de cor foram ajustados a funções de elipse. Os critérios analisados para cada sujeito foram: a área da elipse, o ângulo de rotação e tamanho dos vetores protan, deutan e tritan. Para cada um dos parâmetros foi realizada: estatística descritiva, análise da dispersão dos parâmetros entre os testes CAD e CCT e dos parâmetros em conjunto, razão entre os parâmetros, correlação dos parâmetros a três modelos matemáticos e análise de concordância. Os parâmetros de área e tamanho dos vetores deutan e tritan do subgrupo tricromata; área e tamanho do vetor tritan do subgrupo protan; e tamanho dos vetores protan e tritan do subgrupo deutan apresentaram equivalência entre os resultados de ambos os testes. Os parâmetros de área, ângulo de rotação e tamanho dos vetores protan e tritan apresentaram concordância de medidas entre os testes CAD e CCT. Fatores como as localizações distintas das coordenadas centrais dos testes CAD e CCT e a disposição espacial dos vetores no espaço de cor da CIE 1976 no teste CCT podem ter influenciado na determinação de limiares de discriminação cromática de ambos os testes. Apesar de utilizarem paradigmas distintos na configuração da estimulação, os testes CAD e CCT são equiparáveis.