926 resultados para Mínimos Quadrados Ordinários


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho descreve um sistema de análise de dados com a finalidade de gerar um sistema de controle utilizando técnica inteligente para adição de fluoreto de alumínio (AlF3) em fornos de redução de alumínio. O projeto baseia-se nos conceitos de lógica fuzzy, nos quais o conhecimento acumulado pelo especialista do processo é traduzido de maneira qualitativa em um conjunto de regras linguísticas do tipo SE ENTÃO. A utilização desta técnica inteligente para o controle de adição de fluoreto busca representar explicitamente um conhecimento qualitativo, detido pelos operadores de cubas eletrolíticas. Devido o sistema convencional não contemplar as variações dos fenômenos que envolvem a dinâmica do processo, um controlador fuzzy foi implmentado no sistema real para tomadas de decisões, utilizando o modelo mínimo de Mandani. Baseado neste modelo, as variáveis de processo para a entrada do sistema fuzzy, tais como temperatura de banho e percentual de fluoreto foram manipuladas para estimar a tendência de subida e descida, respectivamente, através do método mínimos quadrados(MMQ). O controlador fuzzy é aplicado para calcular a quantidade de fluoreto de alumínio (AlF3) a ser adicionado na cuba eletrolítica de forma automática sem a necessidade da intervenção do especialista do processo. A motivação para o uso de um sistema de controle fuzzy se deve ao fato de não se ter disponível um modelo dinâmico do processo de adição do fluoreto na cuba eletrolítica. Esta falta de modelagem se deve ao fato de grande complexidade dos fenômenos envolvidos em uma cuba que são processos termodinâmicos e eletromagnéticos acoplados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A metodologia tradicional de identificação de parâmetros na análise modal de estruturas é realizada a partir de sinais medidos de força de entrada e de movimento de resposta da estrutura em condições laboratoriais controladas. Entretanto, quando é necessária a obtenção dos parâmetros modais de estruturas de máquinas em operação, as condições para controlar e medir a excitação nestas situações impossibilita a realização da análise modal tradicional. Neste caso, o teste modal é realizado utilizando somente dados de resposta do sistema. A Análise Modal Operacional (AMO) é um método de extração modal em que nenhuma excitação artificial necessita ser aplicada ao sistema, utilizando-se a própria excitação operacional como entrada para medição da resposta do sistema. A técnica clássica de Análise Modal Operacional NExT considera, para isso, que a excitação operacional do sistema seja um ruído branco. Esta técnica faz a consideração de que as funções de correlação obtidas de estruturas podem ser consideradas como funções de resposta ao impulso e então métodos tradicionais de identificação modal no domínio do tempo podem ser empregados. Entretanto, caso a excitação operacional contenha componentes harmônicos que se sobressaiam, estes podem ser confundidos como modos naturais do sistema. Neste trabalho é demonstrada que através da função densidade de probabilidade da banda estreita contendo o pico de um modo, é possível identifica-lo como natural ou operacional (proveniente da excitação operacional da estrutura). É apresentada também uma modificação no método de identificação modal Exponencial Complexa Mínimos Quadrados (LSCE), passando a considerar sinais harmônicos de freqüências conhecidas presentes na excitação operacional, em um ensaio utilizando a técnica NExT. Para validação desses métodos, utiliza-se um modelo teórico de parâmetros modais conhecidos analiticamente e como estudo de caso experimental, um sistema formado por uma viga bi-apoiada suportando um motor elétrico com desbalanceamento de massa.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O presente trabalho propõe metodologias para detectar a presença e localizar um intruso em ambientes indoor, 2-D e 3-D, sendo que neste último, utiliza-se um sistema cooperativo de antenas e, em ambos os casos, o sistema é baseado em radares multiestáticos. Para obter uma alta resolução, o radar opera com pulsos UWB, que possuem amplitude espectral máxima em 1 GHz para ambientes 2-D e, pulsos de banda larga com frequências entre 200 MHz e 500 MHz para ambientes 3-D. A estimativa de localização, para os ambientes bidimensionais, é feita pela técnica de otimização Enxame de Partículas - PSO (Particle Swarm Optimization), pelo método de Newton com eliminação de Gauss e pelo método dos mínimos quadrados com eliminação de Gauss. Para o ambiente tridimensional, foi desenvolvida uma metodologia vetorial que estima uma possível região de localização do intruso. Para a simulação das ondas eletromagnéticas se utiliza o método numérico FDTD (Diferenças Finitas no Domínio do Tempo) associado à técnica de absorção UPML (Uniaxial Perfectly Matched Layer) com o objetivo de truncar o domínio de análise simulando uma propagação ao infinito. Para a análise do ambiente em 2-D foi desenvolvido o ACOR-UWB-2-D e para o ambiente 3-D foi utilizado o software LANE SAGS.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O estudo da perda de propagação, nas cidades da região amazônica, envolve ambiente caracterizado pelo clima tropical e, suburbano densamente arborizado. Levando consideração à importância da faixa ISM 5,8 GHz, esta dissertação apresenta um modelo propagação para a faixa de frequência em questão, agregando as características da atenuação experimentada pela onda de rádio quando se propaga em ambientes de cidades típicas região amazônica. Para tanto, medidas de potência recebida foram coletadas em 335 clientes fixos, distribuídos em 12 cidades na região norte do Brasil, sendo estes atendidos pelo programa de inclusão digital do estado do Pará, Navega Pará. Também foram realizadas medidas com mobilidade no campus da Universidade Federal do Pará (UFPA). Apresenta ainda o desempenho do modelo proposto sobre outros modelos (Modelo SUI e COST231-Hata) descritos na literatura, para redes sem fio fixas e com mobilidade. As métricas desempenho utilizadas foram o erro RMS e o desvio padrão com relação aos dados medidos. O ajuste dos parâmetros do modelo proposto é realizado através do método de mínimos quadrados lineares, aplicado em duas etapas para diminuir a incerteza sobre os parâmetros ajustados. O modelo proposto alcançou um erro RMS de 3,8 dB e desvio padrão de 2,3 dB, superando os demais modelos que obtiveram erros RMS acima de 10 dB e desvios padrão acima de 5 dB. Os resultados obtidos mostram a sua eficiência sobre outros modelos para predição de perdas na faixa de 5,8 GHz em sistemas fixos e móveis.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo o desenvolvimento de um modelo matemático capaz de ajustar dados obtidos através de campanhas de medição por meio de um protótipo de um cenário da tecnologia WiMAX. As campanhas de medição foram feitas na Universidade Federal do Pará. Foram utilizadas antenas WiMAX, sendo uma como servidor, localizada em cima do prédio do Laboratório de Planejamento de Redes de Alto Desempenho (LPRAD), e a outra, receptora, que ficou em cima de um móvel para que os pontos fossem coletados. O método de ajuste utilizado foi o dos Mínimos Quadrados Lineares. Por meio dos dados coletados, aplica-se o método e estuda seu comportamento, verificando o quanto a otimização foi eficiente nos casos apresentados. A utilização da tecnologia em questão como acesso à Internet em alguns programas como o NAVEGAPARÁ, a busca de melhoramentos ou criação de modelos de propagação e a análise cross-layer das métricas utilizadas no trabalho, como a influência da relação sinal-ruído na perda de quadros, são fatores motivadores para a pesquisa desta dissertação.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta dissertação apresenta uma técnica para detecção e diagnósticos de faltas incipientes. Tais faltas provocam mudanças no comportamento do sistema sob investigação, o que se reflete em alterações nos valores dos parâmetros do seu modelo matemático representativo. Como plataforma de testes, foi elaborado um modelo de um sistema industrial em ambiente computacional Matlab/Simulink, o qual consiste em uma planta dinâmica composta de dois tanques comunicantes entre si. A modelagem dessa planta foi realizada através das equações físicas que descrevem a dinâmica do sistema. A falta, a que o sistema foi submetido, representa um estrangulamento gradual na tubulação de saída de um dos tanques. Esse estrangulamento provoca uma redução lenta, de até 20 %, na seção desse tubo. A técnica de detecção de falta foi realizada através da estimação em tempo real dos parâmetros de modelos Auto-regressivos com Entradas Exógenas (ARX) com estimadores Fuzzy e de Mínimos Quadrados Recursivos. Já, o diagnóstico do percentual de entupimento da tubulação foi obtido por um sistema fuzzy de rastreamento de parâmetro, realimentado pela integral do resíduo de detecção. Ao utilizar essa metodologia, foi possível detectar e diagnosticar a falta simulada em três pontos de operação diferentes do sistema. Em ambas as técnicas testadas, o método de MQR teve um bom desempenho, apenas para detectar a falta. Já, o método que utilizou estimação com supervisão fuzzy obteve melhor desempenho, em detectar e diagnosticar as faltas aplicadas ao sistema, constatando a proposta do trabalho.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Desde a incorporação da automação no processo produtivo, a busca por sistemas mais eficientes, objetivando o aumento da produtividade e da qualidade dos produtos e serviços, direcionou os estudos para o planejamento de estratégias que permitissem o monitoramento de sistemas com o intuito principal de torna-los mais autônomos e robustos. Por esse motivo, as pesquisas envolvendo o diagnóstico de faltas em sistemas industriais tornaram-se mais intensivas, visto a necessidade da incorporação de técnicas para monitoramente detalhado de sistemas. Tais técnicas permitem a verificação de perturbações, falta ou mesmo falhas. Em vista disso, essa trabalho investiga técnicas de detecção e diagnostico de faltas e sua aplicação em motores de indução trifásicos, delimitando o seu estudo em duas situações: sistemas livre de faltas, e sobre atuação da falta incipiente do tipo curto-circuitoparcial nas espiras do enrolamento do estator. Para a detecção de faltas, utilizou-se analise paramétrica dos parâmetros de um modelo de tempo discreto, de primeira ordem, na estrutura autoregressivo com entradas exógenas (ARX). Os parâmetros do modelo ARX, que trazem informação sobre a dinâmica dominante do sistema, são obtidos recursivamente pela técnica dos mínimos quadrados recursivos (MQR). Para avaliação da falta, foi desenvolvido um sistema de inferência fuzzy (SIF) intervala do tipo-2, cuja mancha de incerteza ou footprint of uncertainty (FOU), características de sistema fuzzy tipo-2, é ideal como forma de representar ruídos inerentes a sistemas reais e erros numéricos provenientes do processo de estimação paramétrica. Os parâmetros do modelo ARX são entradas para o SIF. Algoritmos genéricos (AG’s) foram utilizados para otimização dos SIF intervalares tipo-2, objetivando reduzir o erro de diagnóstico da falta identificada na saída desses sistemas. Os resultados obtidos em teste de simulação computacional demonstram a efetividade da metodologia proposta.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

ABSTRACT: This paper presents a performance comparison between known propagation Models through least squares tuning algorithm for 5.8 GHz frequency band. The studied environment is based on the 12 cities located in Amazon Region. After adjustments and simulations, SUI Model showed the smaller RMS error and standard deviation when compared with COST231-Hata and ECC-33 models.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este artigo apresenta uma aplicação do método para determinação espectrofotométrica simultânea dos íons divalentes de cobre, manganês e zinco à análise de medicamento polivitamínico/polimineral. O método usa 4-(2-piridilazo) resorcinol (PAR), calibração multivariada e técnicas de seleção de variáveis e foi otimizado o empregando-se o algoritmo das projeções sucessivas (APS) e o algoritmo genético (AG), para escolha dos comprimentos de onda mais informativos para a análise. Com essas técnicas, foi possível construir modelos de calibração por regressão linear múltipla (RLM-APS e RLM-AG). Os resultados obtidos foram comparados com modelos de regressão em componentes principais (PCR) e nos mínimos quadrados parciais (PLS). Demonstra-se a partir do erro médio quadrático de previsão (RMSEP) que os modelos apresentam desempenhos semelhantes ao prever as concentrações dos três analitos no medicamento. Todavia os modelos RLM são mais simples pois requerem um número muito menor de comprimentos de onda e são mais fáceis de interpretar que os baseados em variáveis latentes.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Neste trabalho serão apresentados os resultados da avaliação experimental de uma metodologia de controle digital preditivo auto-ajustavel aplicada ao controle de tensão de um sistema de geração de energia de escala reduzida. Um estimador recursivo baseado no conhecido método de mínimos quadrados é utilizado na etapa de identificação do controlador preditivo proposto. A etapa de cálculo da lei de controle é realizada com o algoritmo Generalized Predictive Controller (GPC). A avaliação experimental foi realizada com testes de resposta ao degrau e rastreamento aplicados em diferentes condições operacionais do sistema de potência estudado. Para fins de comparação, também serão apresentados os resultados da avaliação de um controlador auto-ajustável que utiliza o método de alocação de pólos para a síntese do sinal de controle e três controladores digitais com parâmetros fixos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O objetivo deste estudo foi estimar a entropia conjunta do sistema visual humano no domínio do espaço e no domínio das freqüências espaciais através de funções psicométricas. Estas foram obtidas com testes de discriminação de estímulos com luminância ou cromaticidade moduladas por funções de Gábor. A essência do método consistiu em avaliar a entropia no domínio do espaço, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em extensão espacial, e avaliar a entropia no domínio das freqüências espaciais, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em freqüência espacial. A entropia conjunta foi calculada, então, a partir desses dois valores individuais de entropia. Três condições visuais foram estudadas: acromática, cromática sem correção fina para eqüiluminância e cromática com correção para eqüiluminância através de fotometria com flicker heterocromático. Quatro sujeitos foram testados nas três condições, dois sujeitos adicionais foram testados na condição cromática sem eqüiluminância fina e um sétimo sujeito também fez o teste acromático. Todos os sujeitos foram examinados por oftalmologista e considerados normais do ponto de vista oftálmico, não apresentando relato, sintomas ou sinais de disfunções visuais ou de moléstias potencialmente capazes de afetar o sistema visual. Eles tinham acuidade visual normal ou corrigida de no mínimo 20/30. O trabalho foi aprovado pela Comissão de Ética em Pesquisa do Núcleo de Medicina Tropical da UFPA e obedeceu às recomendações da Declaração de Helsinki. As funções de Gábor usadas para modulação de luminância ou cromaticidade compreenderam redes senoidais unidimensionais horizontais, moduladas na direção vertical, dentro de envelopes gaussianos bidimensionais cuja extensão espacial era medida pelo desvio padrão da gaussiana. Os estímulos foram gerados usando-se uma rotina escrita em Pascal num ambiente Delphi 7 Enterprise. Foi utilizado um microcomputador Dell Precision 390 Workstation e um gerador de estímulos CRS VSG ViSaGe para exibir os estímulos num CRT de 20”, 800 x 600 pixels, 120 Hz, padrão RGB, Mitsubishi Diamond Pro 2070SB. Nos experimentos acromáticos, os estímulos foram gerados pela modulação de luminância de uma cor branca correspondente à cromaticidade CIE1931 (x = 0,270; y = 0,280) ou CIE1976 (u’ = 0,186; v’= 0,433) e tinha luminância média de 44,5 cd/m2. Nos experimentos cromáticos, a luminância média foi mantida em 15 cd/m2 e foram usadas duas series de estímulos verde-vermelhos. Os estímulos de uma série foram formados por duas cromaticidades definidas no eixo M-L do Espaço de Cores DKL (CIE1976: verde, u’=0,131, v’=0,380; vermelho, u’=0,216, v’=0,371). Os estímulos da outra série foram formados por duas cromaticidades definidas ao longo de um eixo horizontal verde-vermelho definido no Espaço de Cores CIE1976 (verde, u’=0,150, v’=0,480; vermelho, u’=0,255, v’=0,480). Os estímulos de referência eram compostos por redes de três freqüências espaciais diferentes (0,4, 2 e 10 ciclos por grau) e envelope gaussiano com desvio padrão de 1 grau. Os estímulos de testes eram compostos por uma entre 19 freqüências espaciais diferentes em torno da freqüência espacial de referência e um entre 21 envelopes gaussianos diferentes com desvio padrão em torno de 1 grau. Na condição acromática, foram estudados quatro níveis de contraste de Michelson: 2%, 5%, 10% e 100%. Nas duas condições cromáticas foi usado o nível mais alto de contraste agregado de cones permitidos pelo gamut do monitor, 17%. O experimento consistiu numa escolha forçada de dois intervalos, cujo procedimento de testagem compreendeu a seguinte seqüência: i) apresentação de um estímulo de referência por 1 s; ii) substituição do estímulo de referência por um fundo eqüiluminante de mesma cromaticidade por 1 s; iii) apresentação do estímulo de teste também por 1 s, diferindo em relação ao estímulo de referência seja em freqüência espacial, seja em extensão espacial, com um estímulo sonoro sinalizando ao sujeito que era necessário responder se o estímulo de teste era igual ou diferente do estímulo de referência; iv) substituição do estímulo de teste pelo fundo. A extensão espacial ou a freqüência espacial do estímulo de teste foi mudada aleatoriamente de tentativa para tentativa usando o método dos estímulos constantes. Numa série de 300 tentativas, a freqüencia espacial foi variada, noutra série também de 300 tentativas, a extensão espacial foi variada, sendo que cada estímulo de teste em cada série foi apresentado pelo menos 10 vezes. A resposta do indivíduo em cada tentativa era guardada como correta ou errada para posterior construção das curvas psicométricas. Os pontos experimentais das funções psicométricas para espaço e freqüência espacial em cada nível de contraste, correspondentes aos percentuais de acertos, foram ajustados com funções gaussianas usando-se o método dos mínimos quadrados. Para cada nível de contraste, as entropias para espaço e freqüência espacial foram estimadas pelos desvios padrões dessas funções gaussianas e a entropia conjunta foi obtida multiplicando-se a raiz quadrada da entropia para espaço pela entropia para freqüência espacial. Os valores de entropia conjunta foram comparados com o mínimo teórico para sistemas lineares, 1/4π ou 0,0796. Para freqüências espaciais baixas e intermediárias, a entropia conjunta atingiu níveis abaixo do mínimo teórico em contrastes altos, sugerindo interações não lineares entre dois ou mais mecanismos visuais. Este fenômeno occorreu em todas as condições (acromática, cromática e cromática eqüiluminante) e foi mais acentuado para a frequência espacial de 0,4 ciclos / grau. Uma possível explicação para este fenômeno é a interação não linear entre as vias visuais retino-genículo-estriadas, tais como as vias K, M e P, na área visual primária ou em níveis mais altos de processamento neural.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Neste trabalho, são apresentados a metodologia de projeto e resultados de testes experimentais de um estabilizador de sistema de potência (ESP), implementado em um sistema de geração em escala reduzida de 10 kVA, localizado no Laboratório de Controle e Sistema de Potência (LACSPOT) da Universidade Federal do Pará (UFPA). O projeto do ESP é baseado em uma estratégia de controle robusto com ênfase em incertezas paramétricas estruturadas, as quais são tratadas com ferramentas da teoria de análise intervalar. Estas incertezas são decorrentes de mudanças do ponto de operação do sistema, que provocam variações nos parâmetros de um modelo matemático linearizado referente ao comportamento dinâmico do sistema elétrico de potência no referido ponto de operação. Para o projeto do ESP robusto intervalar, são realizados uma serie de ensaios experimentais com o propósito de estimar os parâmetros de modelos linearizados da planta, representando satisfatoriamente a dinâmica dos modos poucos amortecidos do sistema de geração interligado. O método de identificação é baseado em técnica de identificação paramétrica, baseado em mínimos quadrados. A partir de um conjunto de dados de entrada e saída, para cada ponto de operação, um modelo linear, do tipo auto-regressivo com entrada exógenos (ARX), estimado para fim de uso do projeto do ESP. Por fim, uma série de testes experimentais é realizada no sistema de geração interligado a rede elétrica local, com o propósito de verificar a efetividade da técnica de controle robusto intervalar proposta para a sintonia do ESP. A partir da análise da função custo do sinal de erro de desvio de potência elétrica na saída do gerador síncrono e a função custo do sinal de controle do ESP comprova-se experimentalmente o bom desempenho obtido pela técnica de controle proposta em comparação com uma técnica de controle clássica.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A interpretação de anomalias gravimétricas é de grande importância no estudo de feições geológicas que ocorrem na crosta terrestre. Esta interpretação é, no entanto, dificultada pelo fato das anomalias gravimétricas serem resultantes da soma total dos efeitos produzidos por todos os contrastes de densidades de subsuperfície. Desse modo, com o intuito de separar efeitos de feições mais profundas de efeitos de feições mais rasas, bem como a caracterização da geometria desses dois conjuntos de feições, apresentamos um método de separação das componentes regional e residual do campo e a subsequente interpretação de cada componente. A separação regional-residual de dados gravimétricos é efetuada através da aproximação do campo regional por um polinômio ajustado ao campo observado por um método robusto. Este método é iterativo e usa como aproximação inicial a solução obtida através do ajuste polinomial pelo método dos mínimos quadrados. O método empregado minimiza a influência de observações contendo forte contribuição do campo residual no ajuste do campo regional. A componente regional obtida a partir da separação regional-residual é transformada em um mapa de distâncias verticais em relação a um nível de referência. Esta transformação compreende duas etapas. A primeira consiste na obtenção da continuação para baixo da componente regional, que é pressuposta ser causada por uma interface suave separando dois meios homogêneos, representando a interface crosta-manto, cujo contraste de densidade é supostamente conhecido. A segunda consiste na transformação do mapa de continuação para baixo em um mapa de distâncias verticais entre o nível de continuação (tomado como nível de referência) e a interface. Este método apresenta duas dificuldades. A primeira está ligada à instabilidade, havendo portanto a necessidade do emprego de um estabilizador o que acarreta a perda de resolução das feições que se desejam mapear. A segunda, inerente ao método gravimétrico, consiste na impossibilidade da determinação das profundidades absolutas da interface em cada ponto, bastando entretanto o conhecimento da profundidade absoluta em um ponto, através de informação independente, para que todas as outras profundidades absolutas sejam conhecidas. A componente residual obtida a partir da separação regional-residual é transformada em um mapa de contrastes de densidade aparente. Esta transformação consiste no cálculo do contraste de densidade de várias fontes prismáticas através de uma inversão linear pressupondo que as fontes reais estejam das a uma placa horizontal, com contrastes de densidade variando apenas nas direções horizontais. O desempenho do método de separação regional-residual apresentado foi avaliado, através de testes empregando dados sintéticos, fornecendo resultados superiores em relação aos métodos dos mínimos quadrados e da análise espectral. O método de interpretação da componente regional teve seu desempenho avaliado em testes com dados sintéticos onde foram produzidos mapeamentos de interfaces bem próximas das estruturas reais. O limite de resolução das feições que se desejam mapear depende não só do grau do polinômio ajustante, como também da própria limitação inerente ao método gravimétrico. Na interpretação da componente residual é necessário que se postule ou tenha informação a priori sobre a profundidade do topo e espessura da placa onde as fontes estão supostamente confinadas. No entanto, a aplicação do método em dados sintéticos, produziu estimativas razoáveis para os limites laterais das fontes, mesmo na presença de fontes interferentes, e pressupondo-se valores para profundidade do topo e espessura da placa, diferentes dos valores verdadeiros. A ambiguidade envolvendo profundidade do topo, espessura e densidade pode ser visualizada através de gráficos de valores de densidade aparente contra profundidade do topo presumida para a placa para vários valores postulados para a espessura da placa. Estes mesmos gráficos permitem, pelo aspecto das curvas, a elaboração de uma interpretação semi-quantitativa das profundidades das fontes reais. A seqüência dos três métodos desenvolvidos neste trabalho foi aplicada a dados gravimétricos da região norte do Piauí e noroeste do Ceará levando a um modelo de organização crustal que compreende espessamentos e adelgaçamentos crustais associados a um evento compressivo que possibilitou a colocação de rochas densas da base da crosta a profundidades rasas. Este modelo ê compatível com os dados geológicos de superfície. É ainda sugerida a continuidade, por mais 200 km em direção a sudoeste, do Cinturão de Cisalhamento Noroeste do Ceará por sob os sedimentos da Bacia do Parnaíba, com base nas evidências fornecidas pela interpretação da anomalia residual. Embora esta seqüência de métodos tenha sido desenvolvida com vistas ao estudo de feições crustais de porte continental, ela também pode ser aplicada ao estudo de feições mais localizadas como por exemplo no mapeamento do relevo do embasamento de/bacias sedimentares onde os sedimentos são cortados por rochas intrusivas mais densas.