14 resultados para Least Square Method
em Universidade Federal do Par
Resumo:
O objetivo deste estudo foi estimar a entropia conjunta do sistema visual humano no domínio do espaço e no domínio das freqüências espaciais através de funções psicométricas. Estas foram obtidas com testes de discriminação de estímulos com luminância ou cromaticidade moduladas por funções de Gábor. A essência do método consistiu em avaliar a entropia no domínio do espaço, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em extensão espacial, e avaliar a entropia no domínio das freqüências espaciais, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em freqüência espacial. A entropia conjunta foi calculada, então, a partir desses dois valores individuais de entropia. Três condições visuais foram estudadas: acromática, cromática sem correção fina para eqüiluminância e cromática com correção para eqüiluminância através de fotometria com flicker heterocromático. Quatro sujeitos foram testados nas três condições, dois sujeitos adicionais foram testados na condição cromática sem eqüiluminância fina e um sétimo sujeito também fez o teste acromático. Todos os sujeitos foram examinados por oftalmologista e considerados normais do ponto de vista oftálmico, não apresentando relato, sintomas ou sinais de disfunções visuais ou de moléstias potencialmente capazes de afetar o sistema visual. Eles tinham acuidade visual normal ou corrigida de no mínimo 20/30. O trabalho foi aprovado pela Comissão de Ética em Pesquisa do Núcleo de Medicina Tropical da UFPA e obedeceu às recomendações da Declaração de Helsinki. As funções de Gábor usadas para modulação de luminância ou cromaticidade compreenderam redes senoidais unidimensionais horizontais, moduladas na direção vertical, dentro de envelopes gaussianos bidimensionais cuja extensão espacial era medida pelo desvio padrão da gaussiana. Os estímulos foram gerados usando-se uma rotina escrita em Pascal num ambiente Delphi 7 Enterprise. Foi utilizado um microcomputador Dell Precision 390 Workstation e um gerador de estímulos CRS VSG ViSaGe para exibir os estímulos num CRT de 20”, 800 x 600 pixels, 120 Hz, padrão RGB, Mitsubishi Diamond Pro 2070SB. Nos experimentos acromáticos, os estímulos foram gerados pela modulação de luminância de uma cor branca correspondente à cromaticidade CIE1931 (x = 0,270; y = 0,280) ou CIE1976 (u’ = 0,186; v’= 0,433) e tinha luminância média de 44,5 cd/m2. Nos experimentos cromáticos, a luminância média foi mantida em 15 cd/m2 e foram usadas duas series de estímulos verde-vermelhos. Os estímulos de uma série foram formados por duas cromaticidades definidas no eixo M-L do Espaço de Cores DKL (CIE1976: verde, u’=0,131, v’=0,380; vermelho, u’=0,216, v’=0,371). Os estímulos da outra série foram formados por duas cromaticidades definidas ao longo de um eixo horizontal verde-vermelho definido no Espaço de Cores CIE1976 (verde, u’=0,150, v’=0,480; vermelho, u’=0,255, v’=0,480). Os estímulos de referência eram compostos por redes de três freqüências espaciais diferentes (0,4, 2 e 10 ciclos por grau) e envelope gaussiano com desvio padrão de 1 grau. Os estímulos de testes eram compostos por uma entre 19 freqüências espaciais diferentes em torno da freqüência espacial de referência e um entre 21 envelopes gaussianos diferentes com desvio padrão em torno de 1 grau. Na condição acromática, foram estudados quatro níveis de contraste de Michelson: 2%, 5%, 10% e 100%. Nas duas condições cromáticas foi usado o nível mais alto de contraste agregado de cones permitidos pelo gamut do monitor, 17%. O experimento consistiu numa escolha forçada de dois intervalos, cujo procedimento de testagem compreendeu a seguinte seqüência: i) apresentação de um estímulo de referência por 1 s; ii) substituição do estímulo de referência por um fundo eqüiluminante de mesma cromaticidade por 1 s; iii) apresentação do estímulo de teste também por 1 s, diferindo em relação ao estímulo de referência seja em freqüência espacial, seja em extensão espacial, com um estímulo sonoro sinalizando ao sujeito que era necessário responder se o estímulo de teste era igual ou diferente do estímulo de referência; iv) substituição do estímulo de teste pelo fundo. A extensão espacial ou a freqüência espacial do estímulo de teste foi mudada aleatoriamente de tentativa para tentativa usando o método dos estímulos constantes. Numa série de 300 tentativas, a freqüencia espacial foi variada, noutra série também de 300 tentativas, a extensão espacial foi variada, sendo que cada estímulo de teste em cada série foi apresentado pelo menos 10 vezes. A resposta do indivíduo em cada tentativa era guardada como correta ou errada para posterior construção das curvas psicométricas. Os pontos experimentais das funções psicométricas para espaço e freqüência espacial em cada nível de contraste, correspondentes aos percentuais de acertos, foram ajustados com funções gaussianas usando-se o método dos mínimos quadrados. Para cada nível de contraste, as entropias para espaço e freqüência espacial foram estimadas pelos desvios padrões dessas funções gaussianas e a entropia conjunta foi obtida multiplicando-se a raiz quadrada da entropia para espaço pela entropia para freqüência espacial. Os valores de entropia conjunta foram comparados com o mínimo teórico para sistemas lineares, 1/4π ou 0,0796. Para freqüências espaciais baixas e intermediárias, a entropia conjunta atingiu níveis abaixo do mínimo teórico em contrastes altos, sugerindo interações não lineares entre dois ou mais mecanismos visuais. Este fenômeno occorreu em todas as condições (acromática, cromática e cromática eqüiluminante) e foi mais acentuado para a frequência espacial de 0,4 ciclos / grau. Uma possível explicação para este fenômeno é a interação não linear entre as vias visuais retino-genículo-estriadas, tais como as vias K, M e P, na área visual primária ou em níveis mais altos de processamento neural.
Resumo:
Apresentamos dois algoritmos automáticos, os quais se utilizam do método dos mínimos quadrados de Wiener-Hopf, para o cálculo de filtros lineares digitais para as transformadas seno, co-seno e de Hankel J0, J1 e J2. O primeiro, que otimiza os parâmetros: incremento das abscissas, abscissa inicial e o fator de deslocamento utilizados para os cálculos dos coeficientes dos filtros lineares digitais que são aferidos através de transformadas co-seno, seno e o segundo, que otimiza os parâmetros: incremento das abscissas e abscissa inicial utilizados para os cálculos dos coeficientes dos filtros lineares digitais que são aferidos através de transformadas de Hankel J0, J1 e J2. Esses algoritmos levaram às propostas de novos filtros lineares digitais de 19, 30 e 40 pontos para as transformadas co-seno e seno e de novos filtros otimizados de 37 , 27 e 19 pontos para as transformadas J0, J1 e J2, respectivamente. O desempenho dos novos filtros em relação aos filtros existentes na literatura geofísica é avaliado usando-se um modelo geofísico constituído por dois semi-espaços. Como fonte usou-se uma linha infinita de corrente entre os semi-espaços originando, desta forma, transformadas co-seno e seno. Verificou-se melhores desempenhos na maioria das simulações usando o novo filtro co-seno de 19 pontos em relação às simulações usando o filtro co-seno de 19 pontos existente na literatura. Verificou-se também a equivalência de desempenhos nas simulações usando o novo filtro seno de 19 pontos em relação às simulações usando o filtro seno de 20 pontos existente na literatura. Adicionalmente usou-se também como fonte um dipolo magnético vertical entre os semi-espaços originando desta forma, transformadas J0 e J1, verificando-se melhores desempenhos na maioria das simulações usando o novo filtro J1 de 27 pontos em relação ao filtro J1 de 47 pontos existente na literatura. Verificou-se também a equivalência de desempenhos na maioria das simulações usando o novo filtro J0 de 37 pontos em relação ao filtro J0 de 61 pontos existente na literatura. Usou-se também como fonte um dipolo magnético horizontal entre os semi-espaços, verificando-se um desempenho análogo ao que foi descrito anteriormente dos novos filtros de 37 e 27 pontos para as respectivas transformadas J0 e J1 em relação aos filtros de 61 e 47 pontos existentes na literatura, destas respectivas transformadas. Finalmente verificou-se a equivalência de desempenhos entre os novos filtros J0 de 37 pontos e J1 de 27 pontos em relação aos filtros de 61 e 47 pontos existentes na literatura destas transformadas, respectivamente, quando aplicados em modelos de sondagens elétricas verticais (Wenner e Schlumberger). A maioria dos nossos filtros contêm poucos coeficientes quando comparados àqueles geralmente usados na geofísica. Este aspecto é muito importante porque transformadas utilizando filtros lineares digitais são usadas maciçamente em problemas numéricos geofísicos.
Resumo:
Este artigo apresenta uma aplicação do método para determinação espectrofotométrica simultânea dos íons divalentes de cobre, manganês e zinco à análise de medicamento polivitamínico/polimineral. O método usa 4-(2-piridilazo) resorcinol (PAR), calibração multivariada e técnicas de seleção de variáveis e foi otimizado o empregando-se o algoritmo das projeções sucessivas (APS) e o algoritmo genético (AG), para escolha dos comprimentos de onda mais informativos para a análise. Com essas técnicas, foi possível construir modelos de calibração por regressão linear múltipla (RLM-APS e RLM-AG). Os resultados obtidos foram comparados com modelos de regressão em componentes principais (PCR) e nos mínimos quadrados parciais (PLS). Demonstra-se a partir do erro médio quadrático de previsão (RMSEP) que os modelos apresentam desempenhos semelhantes ao prever as concentrações dos três analitos no medicamento. Todavia os modelos RLM são mais simples pois requerem um número muito menor de comprimentos de onda e são mais fáceis de interpretar que os baseados em variáveis latentes.
Resumo:
Este trabalho teve como objetivo geral desenvolver uma metodologia sistemática para a inversão de dados de reflexão sísmica em arranjo ponto-médio-comum (PMC), partindo do caso 1D de variação vertical de velocidade e espessura que permite a obtenção de modelos de velocidades intervalares, vint,n, as espessuras intervalares, zn, e as velocidades média-quadrática, vRMS,n, em seções PMC individualizadas. Uma consequência disso é a transformação direta destes valores do tempo para profundidade. Como contribuição a análise de velocidade, foram desenvolvidos dois métodos para atacar o problema baseado na estimativa de velocidade intervalar. O primeiro método foi baseado na marcação manual em seções PMC, e inversão por ajuste de curvas no sentido dos quadrados-mínimos. O segundo método foi baseado na otimização da função semblance para se obter uma marcação automática. A metodologia combinou dois tipos de otimização: um Método Global (Método Price ou Simplex), e um Método Local (Gradiente de Segunda Ordem ou Conjugado), submetidos a informação à priori e vínculos. A marcação de eventos na seção tempo-distância faz parte dos processos de inversão, e os pontos marcados constituem os dados de entrada juntamente com as informações à priori do modelo a ser ajustado. A marcação deve, por princípio, evitar eventos que representem múltiplas, difrações e interseções, e numa seção pode ser feita mais de 50 marcações de eventos, enquanto que num mapa semblance não se consegue marcar mais de 10 eventos de reflexão. A aplicação deste trabalho é voltada a dados sísmicos de bacias sedimentares em ambientes marinhos para se obter uma distribuição de velocidades para a subsuperfície, onde o modelo plano-horizontal é aplicado em seções PMC individualizadas, e cuja solução pode ser usada como um modelo inicial em processos posteriores. Os dados reais da Bacia Marinha usados neste trabalho foram levantados pela PETROBRAS em 1985, e a linha sísmica selecionada foi a de número L5519 da Bacia do Camamu, e o PMC apresentado é a de número 237. A linha é composta de 1098 pontos de tiro, com arranjo unilateraldireito. O intervalo de amostragem é 4 ms. O espaçamento entre os geofones é 13,34 m com o primeiro geofone localizado a 300 m da fonte. O espaçamento entre as fontes é de 26,68 m. Como conclusão geral, o método de estimativa de velocidade intervalar apresentada neste trabalho fica como suporte alternativo ao processo de análise de velocidades, onde se faz necessário um controle sobre a sequência de inversão dos PMCs ao longo da linha sísmica para que a solução possa ser usada como modelo inicial ao imageamento, e posterior inversão tomográfica. Como etapas futuras, podemos propor trabalhos voltados direto e especificamente a análise de velocidade sísmica estendendo o caso 2D de otimização do semblance ao caso 3D, estender o presente estudo para o caso baseado na teoria do raio imagem com a finalidade de produzir um mapa continuo de velocidades para toda a seção sísmica de forma automática.
Resumo:
A presente Dissertação de Mestrado tem como objetivo o estudo do problema de inversão sísmica baseada em refletores planos para arranjo fonte-comum (FC) e ponto-médiocomum (PMC). O modelo direto é descrito por camadas homogêneas, isotrópicas com interfaces plano-horizontais. O problema é relacionado ao empilhamento NMO baseado na otimização da função semblance, para seções PMC corrigidas de sobretempo normal (NMO). O estudo foi baseado em dois princípios. O primeiro princípio adotado foi de combinar dois grupos de métodos de inversão: um Método Global e um Método Local. O segundo princípio adotado foi o de cascata, segundo a teoria Wichert-Herglotz-Bateman, que estabelece que para conhecer uma camada inferior tem-se que conhecer primeiro a camada superior (dissecação). A aplicação do estudo é voltada à simulação sísmica de Bacia Sedimentar do Solimões e de Bacia Marinha para se obter uma distribuição local 1D de velocidades e espessuras para a subsuperfície em horizontes alvo. Sendo assim, limitamos a inversão entre 4 e 11 refletores, uma vez que na prática a indústria limita uma interpretação realizada apenas em número equivalente de 3 a 4 refletores principais. Ressalta-se que este modelo é aplicável como condição inicial ao imageamento de seções sísmicas em regiões geologicamente complexas com variação horizontal suave de velocidades. Os dados sintéticos foram gerados a partir dos modelos relacionados a informações geológicas, o que corresponde a uma forte informação a priori no modelo de inversão. Para a construção dos modelos relacionados aos projetos da Rede Risco Exploratório (FINEP) e de formação de recursos humanos da ANP em andamento, analisamos os seguintes assuntos relevantes: (1) Geologia de bacias sedimentares terrestre dos Solimões e ma rinha (estratigráfica, estrutural, tectônica e petrolífera); (2) Física da resolução vertical e horizontal; e (3) Discretização temporal-espacial no cubo de multi-cobertura. O processo de inversão é dependente do efeito da discretização tempo-espacial do campo de ondas, dos parâmetros físicos do levantamento sísmico, e da posterior reamostragem no cubo de cobertura múltipla. O modelo direto empregado corresponde ao caso do operador do empilhamento NMO (1D), considerando uma topografia de observação plana. O critério básico tomado como referência para a inversão e o ajuste de curvas é a norma 2 (quadrática). A inversão usando o presente modelo simples é computacionalmente atrativa por ser rápida, e conveniente por permitir que vários outros recursos possam ser incluídos com interpretação física lógica; por exemplo, a Zona de Fresnel Projetada (ZFP), cálculo direto da divergência esférica, inversão Dix, inversão linear por reparametrização, informações a priori, regularização. A ZFP mostra ser um conceito út il para estabelecer a abertura da janela espacial da inversão na seção tempo-distância, e representa a influência dos dados na resolução horizontal. A estimativa da ZFP indica uma abertura mínima com base num modelo adotado, e atualizável. A divergência esférica é uma função suave, e tem base física para ser usada na definição da matriz ponderação dos dados em métodos de inversão tomográfica. A necessidade de robustez na inversão pode ser analisada em seções sísmicas (FC, PMC) submetida a filtragens (freqüências de cantos: 5;15;75;85; banda-passante trapezoidal), onde se pode identificar, comparar e interpretar as informações contidas. A partir das seções, concluímos que os dados são contaminados com pontos isolados, o que propõe métodos na classe dos considerados robustos, tendo-se como referência a norma 2 (quadrados- mínimos) de ajuste de curvas. Os algoritmos foram desenvolvidos na linguagem de programação FORTRAN 90/95, usando o programa MATLAB para apresentação de resultados, e o sistema CWP/SU para modelagem sísmica sintética, marcação de eventos e apresentação de resultados.
Resumo:
No campo da perfilagem de poço existe um grande interesse voltado para as técnicas que melhorem a resolução vertical das respostas das ferramentas. Neste trabalho, optamos por desenvolver uma técnica de aumento de resolução vertical dos perfis obtidos com a ferramenta de indução denominada na bibliografia de 6FF40, através de um algoritmo que utiliza as técnicas de estimativa dos mínimos quadrados. Este método torna possível o processamento dos dados registrados de uma maneira computacionalmente eficiente. O algoritmo apresentado necessita apenas dos dados registrados, dos valores adotados como coeficientes da ferramenta, e de uma estimativa dos ruídos existentes. Como ilustração foram utilizados trechos de um perfil de uma área que reconhecidamente apresenta problemas relacionados à resolução vertical da ferramenta 6FF40. Com o objetivo de verificar a eficiência do algoritmo utilizado, os perfis processados foram correlacionados com os perfis de raio gama e com os perfis esféricos focalizados do poço 7-LOR-18-RN, perfis estes que possuem resolução vertical maior do que os perfis convencionais de indução, comprovando a individualização das camadas delgadas que antes do processamento não eram facilmente reconhecidas no perfil original. O algoritmo foi também testado com dados sintéticos demonstrando sua eficiência na recuperação de valores mais representativos para Rt.
Resumo:
O presente trabalho propõe metodologias para detectar a presença e localizar um intruso em ambientes indoor, 2-D e 3-D, sendo que neste último, utiliza-se um sistema cooperativo de antenas e, em ambos os casos, o sistema é baseado em radares multiestáticos. Para obter uma alta resolução, o radar opera com pulsos UWB, que possuem amplitude espectral máxima em 1 GHz para ambientes 2-D e, pulsos de banda larga com frequências entre 200 MHz e 500 MHz para ambientes 3-D. A estimativa de localização, para os ambientes bidimensionais, é feita pela técnica de otimização Enxame de Partículas - PSO (Particle Swarm Optimization), pelo método de Newton com eliminação de Gauss e pelo método dos mínimos quadrados com eliminação de Gauss. Para o ambiente tridimensional, foi desenvolvida uma metodologia vetorial que estima uma possível região de localização do intruso. Para a simulação das ondas eletromagnéticas se utiliza o método numérico FDTD (Diferenças Finitas no Domínio do Tempo) associado à técnica de absorção UPML (Uniaxial Perfectly Matched Layer) com o objetivo de truncar o domínio de análise simulando uma propagação ao infinito. Para a análise do ambiente em 2-D foi desenvolvido o ACOR-UWB-2-D e para o ambiente 3-D foi utilizado o software LANE SAGS.
Resumo:
Neste trabalho serão apresentados os resultados da avaliação experimental de uma metodologia de controle digital preditivo auto-ajustavel aplicada ao controle de tensão de um sistema de geração de energia de escala reduzida. Um estimador recursivo baseado no conhecido método de mínimos quadrados é utilizado na etapa de identificação do controlador preditivo proposto. A etapa de cálculo da lei de controle é realizada com o algoritmo Generalized Predictive Controller (GPC). A avaliação experimental foi realizada com testes de resposta ao degrau e rastreamento aplicados em diferentes condições operacionais do sistema de potência estudado. Para fins de comparação, também serão apresentados os resultados da avaliação de um controlador auto-ajustável que utiliza o método de alocação de pólos para a síntese do sinal de controle e três controladores digitais com parâmetros fixos.
Resumo:
Tradicionalmente, o método dos mínimos quadrados tem sido empregado na inversão não linear de dados de campo potencial. No caso em que as observações dos campos gravimétrico ou magnético contém apenas ruído Gaussiano. O método dos mínimos quadrados não apresenta problemas. Entretanto, quando as observações são perturbadas por ruído não Gaussiano, ou mesmo por ruído não aleatório, como é o caso de muitos ruídos geológicos, o método dos mínimos quadrados torna-se bastante ineficiente, e métodos alternativos devem ser empregados a fim de produzir interpretações realísticas. Neste trabalho, uma comparação é feita entre os métodos dos mínimos quadrados, dos mínimos absolutos e do ajuste-M, aplicados à inversão não linear de dados de campo potencial. A comparação é efetuada usando-se dados teóricos, onde diversas situações geológicas são simuladas. Os resultados mostram que na presença de ruído geológico, caracterizado por pequeno corpo raso acima do corpo principal, ou por corpo grande, adjacente ao corpo principal, o ajuste-M apresenta desempenho muito superior ao dos mínimos quadrados e dos mínimos absolutos. Na presença de ruído Gaussiano, entretanto, o ajuste-M tem um desempenho inferior aos outros dois métodos. Como o ruído Gaussiano é um ruído branco, parte dele pode ser removido por um filtro passa baixa adequado, sem muita perda do sinal, o que não ocorre com o ruído geológico que contém componentes importantes de baixo número de onda. Desse modo o ajuste-M se torna uma ferramenta importante na interpretação de áreas geologicamente complexas, onde é comum a contaminação das anomalias por ruído geológico. Os três métodos em estudo são aplicados a uma anomalia magnética real causada por uma intrusão de diabásio em forma de dique, em sedimentos arenosos da formação Piauí na Bacia do Parnaíba. Os três métodos apresentaram resultados semelhantes indicando que tanto o nível de ruído Gaussiano como geológico são baixos nesta anomalia.
Resumo:
O presente trabalho consiste na formulação de uma metodologia para interpretação automática de dados de campo magnético. Desta forma, a sua utilização tornará possível a determinação das fronteiras e magnetização de cada corpo. Na base desta metodologia foram utilizadas as características de variações abruptas de magnetização dos corpos. Estas variações laterais abruptas serão representadas por polinômios descontínuos conhecidos como polinômios de Walsh. Neste trabalho, muitos conceitos novos foram desenvolvidos na aplicação dos polinômios de Walsh para resolver problemas de inversão de dados aeromagnéticos. Dentre os novos aspectos considerados, podemos citar. (i) - O desenvolvimento de um algoritmo ótimo para gerar um jôgo dos polinômios "quase-ortogonais" baseados na distribuição de magnetização de Walsh. (ii) - O uso da metodologia damped least squares para estabilizar a solução inversa. (iii) - Uma investigação dos problemas da não-invariância, inerentes quando se usa os polinômios de Walsh. (iv) - Uma investigação da escolha da ordem dos polinômios, tomando-se em conta as limitações de resolução e o comportamento dos autovalores. Utilizando estas características dos corpos magnetizados é possível formular o problema direto, ou seja, a magnetização dos corpos obedece a distribuição de Walsh. É também possível formular o problema inverso, na qual a magnetização geradora do campo observado obedece a série de Walsh. Antes da utilização do método é necessária uma primeira estimativa da localização das fontes magnéticas. Foi escolhida uma metodologia desenvolvida por LOURES (1991), que tem como base a equação homogênea de Euler e cujas exigências necessárias à sua utilização é o conhecimento do campo magnético e suas derivadas. Para testar a metodologia com dados reais foi escolhida uma região localizada na bacia sedimentar do Alto Amazonas. Os dados foram obtidos a partir do levantamento aeromagnético realizado pela PETROBRÁS.
Resumo:
Apesar das grandes vantagens decorrentes da interpretação conjunta de dados geofísicos, a aplicação da inversão simultânea destes dados tem sido pouco estudada, principalmente a nível de simulação. Este trabalho foi desenvolvido com intuito de cobrir parte desta deficiência. Neste trabalho, foi utilizado o método dos mínimos quadrados para comparar os resultados obtidos a partir de: a) inversão dos grupos de dados gravimétricos, magnéticos e resistivos tomados separadamente; b) inversão simultânea destes grupos de dados combinados dois a dois; c) inversão simultânea dos três grupos de dados. O trabalho é desenvolvido a partir de dados teóricos onde são simuladas diversas situações geológicas. A comparação dos resultados é efetuada a partir das estimativas dos parâmetros obtidos por cada inversão, pelos desvios padrões de cada parâmetro (inversão gravimetria-magnetometria para o ruído Gaussiano) e pela redução da ambiguidade, manifestada pela dependência das estimativas em relação a aproximação inicial dos parâmetros. Na maioria dos casos estudados as inversões conjuntas dos dados combinados dois a dois apresentam resultados bem superiores àqueles obtidos usando-se apenas um dos grupos de dados isoladamente, seja nas estimativas dos parâmetros, seja na redução da ambiguidade. Por sua vez, a inversão conjunta dos três grupos de dados apresentam resultados semelhantes às inversões dos grupos de dados combinados dois a dois, contudo em alguns casos a inversão conjunta dos três grupos de dados é a única totalmente independente da aproximação inicial. Dados gravimétricos e magnéticos de duas anomalias reais foram invertidos, produzindo sempre curvas estimadas bem ajustadas aos valores observados.
Resumo:
Dois dos principais objetivos da interpretação petrofísica de perfis são a determinação dos limites entre as camadas geológicas e o contato entre fluidos. Para isto, o perfil de indução possui algumas importantes propriedades: É sensível ao tipo de fluido e a distribuição do mesmo no espaço poroso; e o seu registro pode ser modelado com precisão satisfatória como sendo uma convolução entre a condutividade da formação e a função resposta da ferramenta. A primeira propriedade assegura uma boa caracterização dos reservatórios e, ao mesmo tempo, evidencia os contatos entre fluidos, o que permite um zoneamento básico do perfil de poço. A segunda propriedade decorre da relação quasi-linear entre o perfil de indução e a condutividade da formação, o que torna possível o uso da teoria dos sistemas lineares e, particularmente, o desenho de filtros digitais adaptados à deconvolução do sinal original. A idéia neste trabalho é produzir um algoritmo capaz de identificar os contatos entre as camadas atravessadas pelo poço, a partir da condutividade aparente lida pelo perfil de indução. Para simplificar o problema, o modelo de formação assume uma distribuição plano-paralela de camadas homogêneas. Este modelo corresponde a um perfil retangular para condutividade da formação. Usando o perfil de entrada digitalizado, os pontos de inflexão são obtidos numericamente a partir dos extremos da primeira derivada. Isto gera uma primeira aproximação do perfil real da formação. Este perfil estimado é então convolvido com a função resposta da ferramenta gerando um perfil de condutividade aparente. Uma função custo de mínimos quadrados condicionada é definida em termos da diferença entre a condutividade aparente medida e a estimada. A minimização da função custo fornece a condutividade das camadas. O problema de otimização para encontrar o melhor perfil retangular para os dados de indução é linear nas amplitudes (condutividades das camadas), mas uma estimativa não linear para os contatos entre as camadas. Neste caso as amplitudes são estimadas de forma linear pelos mínimos quadrados mantendo-se fixos os contatos. Em um segundo passo mantem-se fixas as amplitudes e são calculadas pequenas mudanças nos limites entre as camadas usando uma aproximação linearizada. Este processo é interativo obtendo sucessivos refinamentos até que um critério de convergência seja satisfeito. O algoritmo é aplicado em dados sintéticos e reais demonstrando a robustez do método.
Resumo:
Descreve-se um eletrodo de carbono modificado com fosfato de cobre (II) imobilizado em uma resina de poliéster (Cu3(PO4)2-Poly) para a determinação de rutina em amostras farmacêuticas por voltametria de onda quadrada. O eletrodo modificado permite a determinação de rutina em potencial (0.20 V vs Ag / AgCl (3,0 mol L-1 KCl)) menor que o observado em um eletrodo não modificado. Verificou-se que a corrente de pico foi linear com a concentração de rutina na faixa de 9,9 × 10-8 a 2,5 × 10-6 mol L-1, com um limite de detecção de 1,2 × 10-8 mol L-1. A resposta do eletrodo foi estável, sem variação significativa dentro de várias horas de operação contínua. A morfologia da superfície do eletrodo modificado foi caracterizada por microscopia eletrônica de varredura (MEV) e pelo sistema de energia dispersiva de raios-X (EDX). Os resultados obtidos foram precisos e exatos. Ademais, estes resultados estão de acordo com aqueles obtidos pelo método cromatográfico a um nível de confiança de 95%.
Resumo:
This paper presents an inversion methodology through weighted least squares to obtain the electrical parameters for the soil of a typical mid-western region in Brazil using the model based in the formalism of the parabolic equations to calculate the electric field intensity received. To validate this methodology, the results of the radio signal measurement campaign conducted in six radial routes leaving the city of Brasilia, Federal District, where the transmitter was located, were used. The measurements were compared to computer simulations and, thus, the optimal values for the electric conductivity and relative permittivity for the soil of the region could be estimated. Finally, a quantitative analysis of these parameters was performed with the values found in the literature, which demonstrated the effectiveness of the proposed methodology.