21 resultados para Segmentación espectral
em Universidade Federal do Pará
Resumo:
O presente trabalho propõe metodologias para detectar a presença e localizar um intruso em ambientes indoor, 2-D e 3-D, sendo que neste último, utiliza-se um sistema cooperativo de antenas e, em ambos os casos, o sistema é baseado em radares multiestáticos. Para obter uma alta resolução, o radar opera com pulsos UWB, que possuem amplitude espectral máxima em 1 GHz para ambientes 2-D e, pulsos de banda larga com frequências entre 200 MHz e 500 MHz para ambientes 3-D. A estimativa de localização, para os ambientes bidimensionais, é feita pela técnica de otimização Enxame de Partículas - PSO (Particle Swarm Optimization), pelo método de Newton com eliminação de Gauss e pelo método dos mínimos quadrados com eliminação de Gauss. Para o ambiente tridimensional, foi desenvolvida uma metodologia vetorial que estima uma possível região de localização do intruso. Para a simulação das ondas eletromagnéticas se utiliza o método numérico FDTD (Diferenças Finitas no Domínio do Tempo) associado à técnica de absorção UPML (Uniaxial Perfectly Matched Layer) com o objetivo de truncar o domínio de análise simulando uma propagação ao infinito. Para a análise do ambiente em 2-D foi desenvolvido o ACOR-UWB-2-D e para o ambiente 3-D foi utilizado o software LANE SAGS.
Resumo:
Hoje, o espectro de rádio é um dos mais importantes recursos naturais no mundo. Segundo relatórios da FCC (do inglês, Federal Communications Commission), as bandas licenciadas, apesar de abundantes, são pobremente utilizadas. A tecnologia de rádio cognitivo visa melhorar a eficiência espectral através do acesso oportunista ao espectro. Permite que novas aplicações baseadas em comunicação sem fio sejam suportadas, sem interferir na comunicação licenciada e buscando garantir a qualidade de serviço das aplicações que a utilizam. Neste âmbito, o handoff de espectro é um dos requisitos essenciais e críticos na adoção desta tecnologia. Este trabalho realiza uma discussão da tecnologia de rádio cognitivo, propõe e avalia uma estratégia proativa para handoff de espectro em redes baseadas em rádio cognitivo utilizando Redes Neurais Artificiais. O desempenho da proposta em termos de nível de interferência ao usuário primário, número de handoffs de espectro realizado pelo usuário secundário e utilização espectral, é comparado com o obtido por um esquema reativo. Diferentemente de outras propostas que se baseiam em modelos estocásticos pré-definidos, utilizaram-se medidas reais de sensoriamento disponibilizados pelo IEEE Dyspan 2008 para avaliar a proposta. Resultados numéricos mostram a superioridade do esquema proposto.
Resumo:
Neste trabalho é apresentado um modelo de redes neurais que será utilizado como ferramenta para uso no planejamento energético e na construção de cenários energéticos através da identificação e agrupamento de pixels representativos de classes de água, vegetação e antropização no entorno do reservatório de Tucuruí, Estado do Pará (bacia do rio Tocantins). Para o estudo, foram utilizadas fotografias aéreas ortorretificadas e um recorte da imagem do satélite Landsat, ambos obtidos em agosto de 2001 e classificados utilizando a métrica da mínima distância no software Matlab 7.3.0 (Matrix Laboratory - software de matemática aplicada) e no Arcview 3.2a (programa de Sistemas de Informações Geográficas). Para classificação da área no Matlab, foram utilizadas redes neurais competitivas, mais especificamente as redes de Kohonen que são caracterizadas por realizar um mapeamento de um espaço de dimensão n (número de entradas) para um espaço de dimensão m (número de saídas). Os resultados obtidos no classificador utilizando rede neural e no classificador do Arcview foram semelhantes, mas houve uma divergência no que diz respeito à imagem de alta e média resolução que pode ser justificada pelo fato de que a imagem de alta resolução espacial ocasiona muita variação espectral em algumas feições, gerando dificuldades nas classificações. Esse classificador automático é uma ferramenta importante para identificar oportunidades e potenciais a serem desenvolvidos na construção de cenários energéticos programados. Os resultados deste trabalho confirmam que a imagem de média resolução ainda é a mais indicada para resolver a maioria dos problemas que envolvem identificação de cobertura do solo para utilização em planejamento energético.
Resumo:
A eficiência espectral em redes baseadas na tecnologia de Rádio Cognitivo (RC) pode ser comprometida caso o rádio seja utilizado por muito tempo para a detecção em vez da transmissão de dados. Por isso, tornam-se necessários esquemas de sensoriamento que tenham o objetivo de obter o máximo possível de utilização do espectro, evitando sensoriamento desnecessário, bem como, obtendo o mínimo de interferência na transmissão do usuário primário decorrente de detecção incorreta de sua transmissão. Neste trabalho, propomos a utilização de Algoritmos Genéticos para realizar a adaptação do período de sensoriamento. O objetivo é obter um período de sensoriamento ótimo para os canais com vistas a maximizar a descoberta de oportunidades no espectro e minimizar o overhead decorrente do sensoriamento. A maioria dos trabalhos relacionados a este assunto considera que o overhead de sensoriamento é fixo, não levando em conta que alguns canais podem ter menor tolerância à interferência que outros. A proposta apresentada neste trabalho pode adaptar-se aos requisitos de tolerância à interferência no canal licenciado por meio da determinação de um período de sensoriamento que otimize as oportunidades para qualquer valor de overhead definido. Nossa proposta consegue obter um ganho de até 90% em relação às técnicas não otimizadas no número de oportunidades encontradas, até 40,9% no ganho de transmissão útil e obteve uma redução no tempo de interferência de 66,83%, bem como resultados similares aos obtidos por uma proposta otimizada presente na literatura, com a vantagem de permitir a adaptação do overhead de sensoriamento.
Resumo:
Neste trabalho foram investigadas (FSSs) com ressonância de alto fator de qualidade (fator Q) e independência da polarização para uma onda plana com incidência normal. Estas FSSs são baseadas em um arranjo planar de metalizações sobre um substrato. Um alto fator Q é obtido por meio da excitação do trapped-mode e a independência da polarização, por meio da alta simetria rotacional dos elementos que compõe o arranjo. Para o projeto de FSSs com controle do regime de trapped-mode, foram utilizados substratos feitos de materiais com possibilidade de controle de suas propriedades elétricas ou magnéticas (ferrite magnetizada ou silício ativado oticamente). O arranjo de dois anéis concêntricos em um substrato dielétrico analisado neste trabalho apresenta uma ressonância de trapped-mode com fator Q em torno de 12 e transmitância máxima de 70 %. Com a utilização de um substrato de ferrite magnetizada nesse arranjo, é mostrado que é possível deslocar a frequência de ressonância do trappedmode em torno de 20 %, sem degradação significativa da ressonância de transmisão. Com o emprego de um substrato de silício ativado opticamente, é demonstrado que é possível realizar um chaveamento praticamente completo da banda de transmissão desse arranjo. Para realização das simulações computacionais foram utilizados o método dos momentos no domínio espectral (SDMM) e os programas comerciais Ansoft Designer 5 Planar EM e CST 2009.
Resumo:
Este trabalho apresenta o desenvolvimento de um algoritmo computacional para análise do espalhamento eletromagnético de nanoestruturas plasmônicas isoladas. O Método dos Momentos tridimensional (MoM-3D) foi utilizado para resolver numericamente a equação integral do campo elétrico, e o modelo de Lorentz-Drude foi usado para representar a permissividade complexa das nanoestruturas metálicas. Baseado nesta modelagem matemática, um algoritmo computacional escrito em linguagem C foi desenvolvido. Como exemplo de aplicação e validação do código, dois problemas clássicos de espalhamento eletromagnético de nanopartículas metálicas foram analisados: nanoesfera e nanobarra, onde foram calculadas a resposta espectral e a distribuição do campo próximo. Os resultados obtidos foram comparados com resultados calculados por outros modelos e observou-se uma boa concordância e convergência entre eles.
Resumo:
A doença de Jorge Lobo (DJL) é uma infecção fúngica profunda, causada pelo Lacazia loboi, que acomete preferencialmente homens agricultores, com forma clínica queloidiana e localização nos membros inferiores. A maior incidência é encontrada na Amazônia brasileira. Há poucos relatos sobre a resposta imune tecidual nas lesões dos pacientes. Este estudo objetiva avaliar uma possível participação na patogenia da doença, dos dendrócitos dérmicos fator XIIIa (DD FXIIIa) em lesões cutâneas, através da técnica da imuno-histoquímica. Foram analisados 33 biopsias cutâneas de pacientes com DJL. O grupo controle foi representado por 10 biopsias de pele normal procedente de pacientes sem doenças dermatológicas e por 61 biopsias de pacientes com paracoccidioidomicose (PCM). Os resultados obtidos com a análise dos prontuários revelaram que a DJL acomete principalmente homens (84,8%), agricultores (72,7%), com 46-65 anos (51,5%), procedentes da região nordeste do estado do Pará (51,5%), com forma clínica queloidiana (81,8%) e localização preponderante das lesões nos membros inferiores (45,5). Os valores da contagem de DD FXIIIa nas lesões cutâneas de DJL não foram influenciados pelas variantes de gênero, idade, profissão, procedência, forma clínica e localização das lesões. A quantidade de DD FXIIIa nos pacientes com DJL foi maior do que a encontrada no grupo controle de pacientes com pele sã e no grupo de pacientes com PCM, tanto no aspecto histopatológico de granuloma frouxo (GF), como granuloma bem organizado (GBO). Em virtude dos DD FXIIIa serem considerados precursores das células de Langerhans (CLs), pode-se sugerir que o aumento deles na DJL represente um reservatório dérmico para as CLs epidérmicas e se transformariam nelas continuamente, não permitindo sua diminuição. Já foi demonstrado o aumento de citocinas do perfil Th2 (TGF-β) na DJL e o aumento de DD FXIIIa que é capaz de secretar o fator de TNF-α, observado neste estudo, mostra um predomínio do perfil Th1. Quando há uma coexpressão de citocinas de ambos os perfis na mesma doença, sugere-se a existência de padrões mistos. Então, os resultados obtidos neste trabalho sugerem que a DJL é uma doença espectral, com pólos de resistência e suscetibilidade. O que talvez explique a existência de casos localizados mesmo com longa evolução da doença e casos disseminados como manifestação precoce da DJL.
Resumo:
Oscilações intrassazonais são fatores controladores da variabilidade pluviométrica interanual de áreas tropicais. O conhecimento de como os modelos numéricos reproduzem suas variabilidades é importante para entender melhor suas atuações e subsidiar operações de previsão de tempo e clima. Neste artigo investiga-se a sensibilidade de um modelo de downscaling dinâmico de precipitação na reprodução das oscilações intrassazonais observadas no setor norte do Nordeste do Brasil (SNNEB - 45ºW-37ºW e 2ºS-12ºS) no período de 1974 a 2000. Os resultados mostraram que a precipitação simulada sobre o SNNEB explicou aproximadamente 70% da variabilidade da precipitação observada no trimestre fevereiro a abril nesta região. Estatísticas de médias, desvios normalizados e percentuais neste trimestre, nessa região, em anos de contrastes climáticos nos Oceanos Pacífico e Atlântico Tropicais, também foram bem capturadas pela precipitação simulada através do downscaling. Análises espectrais com uso de ondeletas mostraram que o downscaling dinâmico tem potencial para reproduzir picos espectrais de precipitação observada no SNNEB nas escalas acima de 8 dias, e nas escalas entre 64 e 128 dias para o período de 01 de janeiro a 30 de junho.
Resumo:
O presente trabalho trata da aplicação do filtro Kalman-Bucy (FKB), organizado como uma deconvolução (FKBD), para extração da função refletividade a partir de dados sísmicos. Isto significa que o processo é descrito como estocástico não-estacionário, e corresponde a uma generalização da teoria de Wiener-Kolmogorov. A descrição matemática do FKB conserva a relação com a do filtro Wiener-Hopf (FWH) que trata da contra-parte com um processo estocástico estacionário. A estratégia de ataque ao problema é estruturada em partes: (a) Critério de otimização; (b) Conhecimento a priori; (c) Algoritmo; e (d) Qualidade. O conhecimento a priori inclui o modelo convolucional, e estabelece estatísticas para as suas componentes do modelo (pulso-fonte efetivo, função refletividade, ruídos geológico e local). Para demostrar a versatilidade, a aplicabilidade e limitações do método, elaboramos experimentos sistemáticos de deconvolução sob várias situações de nível de ruídos aditivos e de pulso-fonte efetivo. Demonstramos, em primeiro lugar, a necessidade de filtros equalizadores e, em segundo lugar, que o fator de coerência espectral é uma boa medida numérica da qualidade do processo. Justificamos também o presente estudo para a aplicação em dados reais, como exemplificado.
Resumo:
Utilizou-se a técnica de espectroscopia de lente térmica com dois feixes quase paralelos em modo descasado para estudar as propriedades térmicas de cinco óleos vegetais e de um composto específico de oleína de palma e p-caroteno (OP+BC), preparado no laboratório. As medidas de difusividade térmica foram obtidas do ajuste entre a curva experimental do sinal temporal de lente térmica no fotodetector com a equação obtida no modelo aberrante de lente térmica com modos descasados, tendo em conta a difração de Fresnel para o campo distante. São reportadas as medidas da difusividade térmica de diversos óleos vegetais da Amazônia e do composto OP+BC. É verificado um crescimento exponencial da difusividade térmica com a concentração, o que se atribui à estrutura molecular do p-caroteno. Até o momento, os resultados são inéditos e não têm sido reportados na literatura.
Resumo:
Endopleura uchi (Huber) Cuatrec. (Humiriaceae), uma planta da Amazônia brasileira, comumente conhecida como “uxi” é utilizada na medicina popular para o tratamento de diversas patologias, como artrite. Bergenina, um dos constituintes químicos das cascas do caule de E. uchi, tem várias atividades biológicas, incluindo antiinflamatória e antinociceptiva. Visando a obtenção de um derivado mais potente que a bergenina decidiu-se acetilar esta substância. Acetilbergenina foi testada em modelos de nocicepção e de inflamação. Bergenina foi isolada a partir do fracionamento por cromatografia por via úmida do extrato aquoso das cascas do caule de E. uchi e acetilbergenina a partir da acetilação da bergenina. As substâncias foram identificadas com base na análise espectral de RMN 1H, RMN 13C, DEPT e COSY, e comparação com dados da literatura. Nos modelos de nocicepção foram realizados os testes de contorção abdominal, placa quente e formalina. Enquanto que nos modelos de inflamação foram realizados os testesdermatite induzida pelo óleo de cróton, edema de pata induzido por carragenina e dextrana e peritonite induzida por carragenina. Além disso, para avaliar o potencialulcerogênico de acetilbergenina foi utilizado o modelo de úlcera gástrica induzida por estresse. No teste de contorção abdominal induzida por ácido acético 0,6%, acetilbergenina nas doses de 1, 5, 10, 15 e 25 mg/kg bloqueou o número de contorções abdominais em 28,2%, 52,7%, 61,1%, 68,3% e 95,0%, respectivamente, e de maneira dose-dependente quando comparada ao grupo controle. DE50 calculada foi de 6,8 mg/kg. No teste da placa quente (55 ºC), acetilbergenina (6,8 mg/kg) não induziu alterações no tempo de latência quando comparada ao grupo controle. No teste da formalina, acetilbergenina (6,8 mg/kg) inibiu em 88,3% o estímulo álgico na 2ª fase (inflamatória) quando comparada ao grupo controle. Além disso, a naloxona reverteu o efeito de acetilbergenina nessa 2ª fase do teste. Na dermatite induzida por óleo de cróton, acetilbergenina (6,8 mg/kg) provocou efeito inibitório de 75,60% em relação ao grupo controle. No edema de pata induzido por carragenina, acetilbergenina (6,8 mg/kg) foi capaz de reduzir o desenvolvimento do edema da 2ª à 5ª hora em comparação ao grupo controle. No edema de pata induzido por dextrana, acetilbergenina (6,8 mg/kg) reduziu o edema em todos os tempos. Na peritonite induzida por carragenina, acetilbergenina (6,8 mg/kg) bloqueou em 70% o número de neutrófilos quando comparada ao grupo controle. No ensaio de úlcera gástrica, acetilbergenina bloqueou em 78,55% a geração de lesões gástricas por estresse quando comparada ao grupo indometacina. Os resultados sugerem que acetilbergenina apresenta atividade antinociceptiva e atividade antiinflamatória, provavelmente, de origem periférica.
Resumo:
A visão de cores consiste na discriminação de objetos com base em sua composição espectral, auxiliando na interação organismo-ambiente. Dentre os primatas, estima-se que a dicromacia seja uma característica compartilhada pela maioria das espécies platirrinas, sendo esta condição polimórfica e ligada ao sexo. O objetivo deste estudo foi comparar os resultados produzidos por equipamentos e softwares distintos para avaliar a tri/dicromacia em dois machos e duas fêmeas da espécie Cebus sp. Foram utilizados dois programas computadorizados: um envolvendo uma versão adaptada do Cambridge Colour Test e outro desenvolvido para o uso em sistema computacional padrão. Nos Experimentos 1 e 2 foi possível averiguar a condição tricromata de uma participante e dicromata dos participantes restantes. No Experimento 3, uma participante fêmea e um macho apresentaram desempenho dicromata compatível com o registrado nos experimentos anteriores. Neste mesmo experimento, uma participante fêmea apresentou desempenho tricromata compatível com o registrado nos experimentos anteriores. Concluiu-se com este estudo que condições favoráveis para a avaliação de visão de cores em primatas platirrinos podem ser edificadas envolvendo equipamento e software de baixo custo financeiro e de fácil programação. Entretanto, devido ao pequeno número de sessões realizadas com o equipamento de baixo custo, sugere-se a replicação do Experimento 3 e a realização de novas sessões com maior número de participantes e envolvendo novos arranjos de estímulos. Acredita-se que se novos dados corroborarem os produzidos aqui, este procedimento e equipamento poderá ser utilizado para avaliação de outras espécies platirrinas onde dados comportamentais são escassos.
Resumo:
A interpretação de anomalias gravimétricas é de grande importância no estudo de feições geológicas que ocorrem na crosta terrestre. Esta interpretação é, no entanto, dificultada pelo fato das anomalias gravimétricas serem resultantes da soma total dos efeitos produzidos por todos os contrastes de densidades de subsuperfície. Desse modo, com o intuito de separar efeitos de feições mais profundas de efeitos de feições mais rasas, bem como a caracterização da geometria desses dois conjuntos de feições, apresentamos um método de separação das componentes regional e residual do campo e a subsequente interpretação de cada componente. A separação regional-residual de dados gravimétricos é efetuada através da aproximação do campo regional por um polinômio ajustado ao campo observado por um método robusto. Este método é iterativo e usa como aproximação inicial a solução obtida através do ajuste polinomial pelo método dos mínimos quadrados. O método empregado minimiza a influência de observações contendo forte contribuição do campo residual no ajuste do campo regional. A componente regional obtida a partir da separação regional-residual é transformada em um mapa de distâncias verticais em relação a um nível de referência. Esta transformação compreende duas etapas. A primeira consiste na obtenção da continuação para baixo da componente regional, que é pressuposta ser causada por uma interface suave separando dois meios homogêneos, representando a interface crosta-manto, cujo contraste de densidade é supostamente conhecido. A segunda consiste na transformação do mapa de continuação para baixo em um mapa de distâncias verticais entre o nível de continuação (tomado como nível de referência) e a interface. Este método apresenta duas dificuldades. A primeira está ligada à instabilidade, havendo portanto a necessidade do emprego de um estabilizador o que acarreta a perda de resolução das feições que se desejam mapear. A segunda, inerente ao método gravimétrico, consiste na impossibilidade da determinação das profundidades absolutas da interface em cada ponto, bastando entretanto o conhecimento da profundidade absoluta em um ponto, através de informação independente, para que todas as outras profundidades absolutas sejam conhecidas. A componente residual obtida a partir da separação regional-residual é transformada em um mapa de contrastes de densidade aparente. Esta transformação consiste no cálculo do contraste de densidade de várias fontes prismáticas através de uma inversão linear pressupondo que as fontes reais estejam das a uma placa horizontal, com contrastes de densidade variando apenas nas direções horizontais. O desempenho do método de separação regional-residual apresentado foi avaliado, através de testes empregando dados sintéticos, fornecendo resultados superiores em relação aos métodos dos mínimos quadrados e da análise espectral. O método de interpretação da componente regional teve seu desempenho avaliado em testes com dados sintéticos onde foram produzidos mapeamentos de interfaces bem próximas das estruturas reais. O limite de resolução das feições que se desejam mapear depende não só do grau do polinômio ajustante, como também da própria limitação inerente ao método gravimétrico. Na interpretação da componente residual é necessário que se postule ou tenha informação a priori sobre a profundidade do topo e espessura da placa onde as fontes estão supostamente confinadas. No entanto, a aplicação do método em dados sintéticos, produziu estimativas razoáveis para os limites laterais das fontes, mesmo na presença de fontes interferentes, e pressupondo-se valores para profundidade do topo e espessura da placa, diferentes dos valores verdadeiros. A ambiguidade envolvendo profundidade do topo, espessura e densidade pode ser visualizada através de gráficos de valores de densidade aparente contra profundidade do topo presumida para a placa para vários valores postulados para a espessura da placa. Estes mesmos gráficos permitem, pelo aspecto das curvas, a elaboração de uma interpretação semi-quantitativa das profundidades das fontes reais. A seqüência dos três métodos desenvolvidos neste trabalho foi aplicada a dados gravimétricos da região norte do Piauí e noroeste do Ceará levando a um modelo de organização crustal que compreende espessamentos e adelgaçamentos crustais associados a um evento compressivo que possibilitou a colocação de rochas densas da base da crosta a profundidades rasas. Este modelo ê compatível com os dados geológicos de superfície. É ainda sugerida a continuidade, por mais 200 km em direção a sudoeste, do Cinturão de Cisalhamento Noroeste do Ceará por sob os sedimentos da Bacia do Parnaíba, com base nas evidências fornecidas pela interpretação da anomalia residual. Embora esta seqüência de métodos tenha sido desenvolvida com vistas ao estudo de feições crustais de porte continental, ela também pode ser aplicada ao estudo de feições mais localizadas como por exemplo no mapeamento do relevo do embasamento de/bacias sedimentares onde os sedimentos são cortados por rochas intrusivas mais densas.
Resumo:
A identificação e descrição dos caracteres litológicos de uma formação são indispensáveis à avaliação de formações complexas. Com este objetivo, tem sido sistematicamente usada a combinação de ferramentas nucleares em poços não-revestidos. Os perfis resultantes podem ser considerados como a interação entre duas fases distintas: • Fase de transporte da radiação desde a fonte até um ou mais detectores, através da formação. • Fase de detecção, que consiste na coleção da radiação, sua transformação em pulsos de corrente e, finalmente, na distribuição espectral destes pulsos. Visto que a presença do detector não afeta fortemente o resultado do transporte da radiação, cada fase pode ser simulada independentemente uma da outra, o que permite introduzir um novo tipo de modelamento que desacopla as duas fases. Neste trabalho, a resposta final é simulada combinando soluções numéricas do transporte com uma biblioteca de funções resposta do detector, para diferentes energias incidentes e para cada arranjo específico de fontes e detectores. O transporte da radiação é calculado através do algoritmo de elementos finitos (FEM), na forma de fluxo escalar 2½-D, proveniente da solução numérica da aproximação de difusão para multigrupos da equação de transporte de Boltzmann, no espaço de fase, dita aproximação P1, onde a variável direção é expandida em termos dos polinômios ortogonais de Legendre. Isto determina a redução da dimensionalidade do problema, tornando-o mais compatível com o algoritmo FEM, onde o fluxo dependa exclusivamente da variável espacial e das propriedades físicas da formação. A função resposta do detector NaI(Tl) é obtida independentemente pelo método Monte Carlo (MC) em que a reconstrução da vida de uma partícula dentro do cristal cintilador é feita simulando, interação por interação, a posição, direção e energia das diferentes partículas, com a ajuda de números aleatórios aos quais estão associados leis de probabilidades adequadas. Os possíveis tipos de interação (Rayleigh, Efeito fotoelétrico, Compton e Produção de pares) são determinados similarmente. Completa-se a simulação quando as funções resposta do detector são convolvidas com o fluxo escalar, produzindo como resposta final, o espectro de altura de pulso do sistema modelado. Neste espectro serão selecionados conjuntos de canais denominados janelas de detecção. As taxas de contagens em cada janela apresentam dependências diferenciadas sobre a densidade eletrônica e a fitologia. Isto permite utilizar a combinação dessas janelas na determinação da densidade e do fator de absorção fotoelétrico das formações. De acordo com a metodologia desenvolvida, os perfis, tanto em modelos de camadas espessas quanto finas, puderam ser simulados. O desempenho do método foi testado em formações complexas, principalmente naquelas em que a presença de minerais de argila, feldspato e mica, produziram efeitos consideráveis capazes de perturbar a resposta final das ferramentas. Os resultados mostraram que as formações com densidade entre 1.8 e 4.0 g/cm3 e fatores de absorção fotoelétrico no intervalo de 1.5 a 5 barns/e-, tiveram seus caracteres físicos e litológicos perfeitamente identificados. As concentrações de Potássio, Urânio e Tório, puderam ser obtidas com a introdução de um novo sistema de calibração, capaz de corrigir os efeitos devidos à influência de altas variâncias e de correlações negativas, observadas principalmente no cálculo das concentrações em massa de Urânio e Potássio. Na simulação da resposta da sonda CNL, utilizando o algoritmo de regressão polinomial de Tittle, foi verificado que, devido à resolução vertical limitada por ela apresentada, as camadas com espessuras inferiores ao espaçamento fonte - detector mais distante tiveram os valores de porosidade aparente medidos erroneamente. Isto deve-se ao fato do algoritmo de Tittle aplicar-se exclusivamente a camadas espessas. Em virtude desse erro, foi desenvolvido um método que leva em conta um fator de contribuição determinado pela área relativa de cada camada dentro da zona de máxima informação. Assim, a porosidade de cada ponto em subsuperfície pôde ser determinada convolvendo estes fatores com os índices de porosidade locais, porém supondo cada camada suficientemente espessa a fim de adequar-se ao algoritmo de Tittle. Por fim, as limitações adicionais impostas pela presença de minerais perturbadores, foram resolvidas supondo a formação como que composta por um mineral base totalmente saturada com água, sendo os componentes restantes considerados perturbações sobre este caso base. Estes resultados permitem calcular perfis sintéticos de poço, que poderão ser utilizados em esquemas de inversão com o objetivo de obter uma avaliação quantitativa mais detalhada de formações complexas.
Resumo:
As medidas de resistividade são de fundamental importância para o cálculo da saturação de óleo em reservatórios potencialmente produtores. A combinação das medidas de resistividade rasa e profunda permite a obtenção dos parâmetros Rt, Rxo e di. Mas, em reservatórios complexos existem dificuldades em se obter leituras confiáveis de Rt, devido à baixa resolução vertical das ferramentas de investigação profunda. Em reservatórios laminados, por exemplo, as leituras obtidas pela ferramenta de indução profunda (ILD) podem levar a uma interpretação errônea das mesmas, levando a acreditar que as medidas obtidas do perfil referem-se a uma única camada. Este problema pode ser em parte resolvido através de uma metodologia que melhore a resolução vertical dos perfis de investigação profunda, valendo-se do uso de informações obtidas de um perfil de alta resolução vertical, i.e; a curva de resistividade rasa. Uma abordagem neste sentido seria usar um perfil de alta resolução que apresente uma boa correlação com o perfil de investigação profunda. Esta correlação pode ser melhor avaliada se aplicarmos um filtro no perfil de alta resolução, de tal forma que o perfil resultante tenha teoricamente a mesma resolução vertical do perfil de baixa resolução. A obtenção deste filtro, porém, recai na premissa de que as funções respostas verticais para as ferramentas de alta e baixa resolução são disponíveis, o que não ocorre na prática. Este trabalho se propõe mostrar uma nova abordagem onde o filtro pode ser obtido a partir de um tratamento no domínio da freqüência. Tal tratamento visa igualar a energia espectral do perfil de alta resolução à energia espectral do perfil de baixa resolução tendo como base o Teorema de Parseval. Será mostrado que a resolução vertical depende fundamentalmente da energia espectral do perfil em questão. A seguir, uma regressão linear é aplicada sobre os perfis de alta resolução filtrado e de baixa resolução. Para cada ponto amostrado dos perfis, uma rotina de minimização é aplicada visando escolher o melhor intervalo de correlação entre os perfis. Finalmente, um fator de correção é aplicado sobre cada ponto do perfil de baixa resolução. Os resultados obtidos com os perfis de indução são promissores, demonstrando a eficácia da abordagem e mesmo quando aplicada em perfis com diferentes propriedades petrofísicas, a metodologia funcionou satisfatoriamente, sem danificar os perfis originais.