1000 resultados para campo


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente estudo foca a temática do acesso das populações do campo à universidade pública, com base na análise do PRONERA – Programa Nacional de Educação na Reforma Agrária, do PROCAMPO – Programa de Apoio à Formação Superior em Licenciatura em Educação do Campo e do PARFOR – Plano Nacional Formação de Professores da Educação Básica, tomando como referência a Universidade Federal do Pará. A pesquisa analisa o cenário da Educação Superior e as modificações no sistema de acesso à universidade, apresenta um panorama sobre as iniciativas de acesso das populações do campo, analisando cursos, recursos financeiros, dados estatísticos e apresentando uma cartografia dos programas no Brasil e no Estado do Pará. Para alcançar o objetivo geral, que foi de analisar as formas de acesso pela população do campo à Educação Superior, no período pós Lei 9.394/96, optou-se por uma metodologia de abordagem dialética, buscamos analisar fatores sociais, políticos, econômicos e as relações estabelecidas, no contexto do acesso das populações do campo à educação superior. Convém esclarecer que não tomamos o método dialético por excelência, pois consideramos que existem muitos elementos dele que não poderão ser aplicados por nós no tempo que a pesquisa propõe, uma vez que somente essa perspectiva nos permitiria a análise da realidade em questão, buscando o apoio na exploração de bibliografias e na técnica de análises de documentos, para posterior sistematização, organização e análise dos dados estatísticos e das informações coletadas ao longo da pesquisa. Os resultados da investigação apontam para um novo eixo de análise dentro da temática Educação Superior – a Educação Superior do Campo, uma vez que o acesso das populações do campo, com metodologias diferenciadas e pautadas no referencial da Educação do Campo passou a ser uma realidade em nosso País. A pesquisa aponta ainda a ampliação do acesso às universidades públicas, com base nos princípios conquistados pela luta dos movimentos sociais e do movimento por uma educação do campo, assim como identificou outras particularidades que não condizem, a princípio, com o que seria uma política educacional voltada para o campo, como é o caso do PARFOR, que, embora não seja criado propriamente a atender estudantes do campo, tem, no Pará, contemplado uma significativa parcela de estudantes/ educadores atuantes em escolas do campo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Durante o governo da Ditadura Militar, a Amazônia se tornou parte do projeto de prioridades para ajudar o Brasil a alcançar um desenvolvimento maior. O Pará teve nesse processo grande destaque por ser o ‘portal de entrada da região’. Assim, boa parte dos empreendimentos que foram implantados neste estado, não levava em consideração a população que habitava esta longínqua parte do Brasil, há muito esquecida pelos governos federais. Os projetos pensados eram totalmente opostos ao tipo de atividades econômicas que durante séculos se trabalhava na região pelas comunidades existentes, como dos indígenas ou dos colonos. Os projetos agroindustriais tinham como meta a apropriação de grandes quantidades de terra para alcançarem seus objetivos. Com a concessão dos representantes militares, a Amazônia sofreu profundas mudanças depois da instalação desses agros negócios, fazendo com que muitas cidades que já existiam vivessem uma fase de grandes conflitos para não permitirem que os projetos se instalassem simplesmente de acordo com a vontade desses empresários e que prejudicassem inúmeras famílias. O município de Moju vivenciou esse cenário. O processo de instalação das agroindústrias se iniciou ainda na década de 1970, mas foi na década de 1980 que os colonos viram-se ameaçados de perder suas terras para esses empreendimentos. Dessa forma, neste trabalho, analiso como se deu à entrada desses projetos, assim como a organização desses colonos e os enfrentamentos que tiveram durante todo este período e que fez com que com que este cenário se transformasse em “palco de guerra” durante vários momentos. Os documentos utilizados como dossiê, reportagem de jornais, atas de reuniões, reportagem de revistas, entrevistas de lideranças sindicais, lavradores, vitimas da violência, ajudam a entender como se deu este processo turbulento na pequena cidade, que a todo custo deveria chegar ao ‘desenvolvimento econômico’.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho dissertativo discute o significado do futebol na sociedade brasileira, em especial a paraense no século XX, mais precisamente no contexto da Ditadura militar no Brasil (1964-1978). Contando com uma diversidade de documentação dos arquivos da Biblioteca Arthur Viana, das atas de entidades desportivas, revistas esportivas, contratos de trabalho, processos e depoimentos, além de uma vasta bibliografia referente ao objeto de investigação. Este ensaio objetiva a compreensão das relações sociais e políticas construídas ao longo do século XX dentro do campo desportivo paraense, com ênfase para as negociações e conflitos estabelecidos no processo de construção do estádio de futebol estadual ―o Mangueirão‖, bem como a criação e reafirmação da Federação Paraense de Futebol; inserida ainda nessa análise as relações de trabalho estabelecidas entre os sujeitos envolvidos diariamente com o futebol paraense.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho aborda as concepções e práticas dos sujeitos do curso de Licenciatura Plena em Educação do Campo/LPEC desenvolvido no Instituto Federal de Educação/IFPA no polo de Castanhal/Pa, o qual tem por embasamento político-pedagógico o Programa de Educação do Campo/PROCAMPO. Com base no objeto de estudo foram definidos como objetivos identificar a concepção teórico/metodológico do PROCAMPO na formação de educadores do campo; analisar a dinâmica do Curso de LPEC no polo de Castanhal e identificar as contribuições do curso na prática dos educadores do campo. Para alcançar os objetivos propostos o processo investigativo realizou pesquisa bibliográfica, pesquisa documental e pesquisa de campo. Na pesquisa bibliográfica foram revisados autores para dar sustentação teórica sobre educação como prática humanizadora com destaque para Brandão (2007), Saviani (1994), Mészáros (2008), Freire (2011), Caldart (2004), Fernandes (2004), Arroyo (1999) entre outros. A pesquisa documental abrangeu o Projeto Pedagógico do Curso de Licenciatura Plena em Educação do Campo; Minuta Original do MEC/Secad; Edital nº 02, de 23/04/2008 (referente à chamada pública para seleção de projetos de instituições públicas de ensino superior para o PROCAMPO); Edital de 16/04/2009 e Edital nº 026/2010 (ambos correspondentes ao processo seletivo de LPEC do IFPA) e a listagem de alunos matriculados no PROCAMPO IFPA/Castanhal em 2010, entre outros. A pesquisa de campo, de caráter qualitativa, utilizou o estudo de caso e recorte temporal delimitado para o período de 2008 a 2012, em função da implementação do PROCAMPO ter ocorrido no ano inicial do período citado e a realização de entrevistas semiestruturada. Os resultados indicam que a materialização do curso em Castanhal apesar das dificuldades de natureza pedagógica e financeira vem causando efeitos positivos na atuação dos educadores do campo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A adoção de sistemas digitais de radiodifusão sonora, que estão em fase de testes no país, permite realizar novos estudos visando um melhor planejamento para a implementação dessas novas emissoras. O que significa reavaliar os principais modelos de radiopropagação existentes ou propor novas alternativas para atender as demandas inerentes dos sistemas digitais. Os modelos atuais, conforme Recomendações ITU-R P. 1546 e ITU-R P. 1812, não condizem fielmente com a realidade de algumas regiões do Brasil, principalmente com as regiões de clima tropical, como a Região Amazônica, seja pelo elevado índice pluviométrico seja pela vasta flora existente. A partir dos modelos adequados ao canal de propagação, torna-se viável desenvolver ferramentas de planejamento de cobertura mais precisas e eficientes. A utilização destas ferramentas é cabível tanto para a ANATEL, para a elaboração dos planos básicos de distribuição de canais quanto para os radiodifusores. No presente trabalho é apresentada uma metodologia utilizando a inteligência computacional, baseada em Inferênciass Baysianas, para predição da intensidade de campo elétrico, a qual pode ser aplicada ao planejamento ou expansão de áreas de cobertura em sistemas de radiodifusão para frequências na faixa de ondas médias (de 300 kHz a 3MHz). Esta metodologia gera valores de campo elétrico estimados a partir dos valores de altitude do terreno (através de análises de tabelas de probabilidade condicional) e estabelece a comparação destes com valores de campo elétrico medidos. Os dados utilizados neste trabalho foram coletados na região central do Brasil, próximo à cidade de Brasília. O sinal transmitido era um sinal de rádio AM transmitido na frequência de 980 kHz. De posse dos dados coletados durante as campanhas de medição, foram realizadas simulações utilizando tabelas de probabilidade condicional geradas por Inferências Bayesianas. Assim, é proposto um método para predizer valores de campo elétrico com base na correlação entre o campo elétrico medido e altitude, através da utilização de inteligência computacional. Se comparados a inúmeros trabalhos existentes na literatura que têm o mesmo objetivo, os resultados encontrados neste trabalho validam o uso da metodologia para determinar o campo elétrico de radiodifusão sonora em ondas médias utilizando Inferências Bayesianas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho determinamos, utilizando Teoria Quântica de Campos em nível de árvore, a radiação escalar emitida por uma fonte em movimento circular uniforme no espaço-tempo plano de Minkowski, assumindo Gravitação Newtoniana, e no espaço-tempo curvo de um buraco negro sem carga e com momento angular nulo, assumindo Relatividade Geral. Efetuamos este cálculo analiticamente para o caso de Minkowski e numericamente no âmbito do espaço-tempo de Schwarzschild, sendo que neste espaço-tempo curvo obtivemos a forma analítica e a normalização dos modos nas regiões assintóticas. Verificamos que, para as órbitas circulares estáveis de acordo com a Relatividade Geral, a potência irradiada no caso de um buraco negro de Schwarzschild é menor do que a obtida no espaço-tempo de Minkowski assumindo a Gravitação Newtoniana. Obtemos também que apenas uma pequena parcela da radiação emitida é absorvida pelo buraco negro. Verificamos que a diferença entre as potências irradiadas em Schwarzschild e Minkowski diminui na medida em que aumentamos o valor da massa do campo. Em Schwarzschild, uma parcela cada vez maior da radiação emitida é absorvida pelo buraco negro na medida em que aumentamos o valor da massa do campo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fazemos a quantização canônica do campo vetorial massivo, primeiro com relação a observadores inerciais e depois com relação a observadores acelerados. Investigamos como uma fonte uniformemente acelerada em Minkowski interage com o campo vetorial massivo no vácuo inercial, através do cálculo da taxa de resposta total. Esta taxa de resposta é calculada em dois referenciais diferentes, um inercial e outro co-acelerado com a fonte. De acordo com o efeito Unruh, no referencial acelerado, o vácuo inercial corresponde a um banho térmico de partículas. Levando em conta este efeito, mostramos, explicitamente, que estas taxas de resposta são idênticas. Este resultado pode ser usado para descrever a interação de elétrons estáticos com partículas Z0 presentes na radiação Hawking, desde que os elétrons estejam muito próximos do horizonte de eventos de um buraco negro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Terra atua como um grande magneto esférico, cujo campo assemelha-se àquele gerado por um dipolo magnético. Este campo apresenta mudanças de intensidade que variam com a localização e a hora local. A parte principal do campo geomagnético se origina no interior da Terra através de processos eletromagnéticos. Extensivos estudos mostraram ainda que existem contribuições de origem externa ao planeta, principalmente de origem solar. Dentre estas fontes há anomalias do campo magnético que surgem a partir de um aumento diurno da corrente elétrica em uma estreita faixa da ionosfera, de direção leste-oeste, centrada no equador magnético e denominada Eletrojato Equatorial (EEJ). Ocasionalmente estas correntes podem apresentar reversões de fluxo, sendo denominadas Contra-Eletrojato (CEJ). Vários autores têm estudado os efeitos do EEJ e CEJ sobre as observações geoeletromagnéticas. Eles estão interessados no efeito combinado do EEJ e estruturas geológicas condutivas 1-D e 2-D. Nestes trabalhos a estrutura 2-D sempre se apresentava paralela ao eletrojato, o que é uma hipótese bastante restritiva ao se modelar ambientes geológicos mais realistas, em que corpos bidimensionais podem ter qualquer strike em relação ao EEJ. Neste trabalho apresentamos a solução deste problema sem esta restrição. Assim, mostramos os campos geoeletromagnéticos devidos a estruturas bidimensionais que possuam strike oblíquo em relação ao EEJ, através de perfis dos campos elétrico e magnéticos calculados na superfície e formando direção arbitrária à heterogeneidade condutiva 2-D. Com esta resposta avaliamos ainda qual a influência que estruturas bidimensionais exercem sobre a resposta magnetotelúrica, sob influência do Eletrojato Equatorial. Durante o desenvolvimento deste trabalho, utilizamos o método de elementos finitos, tendo por fonte eletromagnética o EEJ e o CEJ, que por sua vez foram representados por uma combinação de distribuições gaussianas de densidade de corrente. Estas fontes foram decompostas nas direções paralela e perpendicular à estrutura 2-D, resultando nos modos de propagação TE1 e TE2 e TM acoplados, respectivamente. Resolvemos o modo acoplado aplicando uma Transformada de Fourier nas equações de Maxwell e uma Transformada Inversa de Fourier na solução encontrada. De acordo com os experimentos numéricos realizados em um modelo interpretativo da Anomalia Condutiva da Bacia do Parnaíba, formado por uma enorme estrutura de 3000 ohm-m dentro de um corpo externo condutivo (1 ohm-m), concluímos que a presença do CEJ causa uma inversão na anomalia, se compararmos com o resultado do EEJ. Concluímos também que para as frequências mais altas as componentes do campo elétrico apresentam menor influência da parte interna do corpo 2-D do que da parte externa. Já para frequências mais baixas este comportamento se observa com as componentes do campo magnético. Com relação à frequência, vimos os efeitos do “skin-depth”, principalmente nas respostas magnéticas. Além disso, quando a estrutura 2-D está paralela ao eletrojato, o campo elétrico é insensível à estrutura interna do modelo para todos os valores de frequência utilizados. Com respeito ao ângulo θh entre a heterogeneidade e a fonte, vimos que o modo TM se manifesta naturalmente quando θh é diferente de 0°. Neste caso, o modo TE é composto por uma parte devido à componente da fonte paralela à heterogeneidade e a outra devido à componente da fonte perpendicular, que é acoplada ao modo TM. Assim, os campos calculados têm relação direta com o valor de θh. Analisando a influência do ângulo entre a direção do perfil dos campos e o strike da heterogeneidade verificamos que, à medida que θh se aproxima de 90°, os campos primários tornam-se variáveis para valores de θp diferentes de 90°. Estas variações causam uma assimetria na anomalia e dão uma idéia da inclinação da direção do perfil em relação aos corpos. Finalmente, concluímos que uma das influências que a distância entre o centro do EEJ e o centro da estrutura 2-D, causa sobre as componentes dos campos está relacionado às correntes reversas do EEJ e CEJ, pois a 500 km do centro da fonte estas correntes têm máxima intensidade. No entanto, com o aumento da distância, as anomalias diminuem de intensidade. Nas sondagens MT, nós também usamos o EEJ e o CEJ como fonte primária e comparamos nossos resultados com a resposta da onda plana. Deste modo observamos que as componentes do campo geoeletromagnético, usadas para calcular a impedância, têm influência do fator de acoplamento entre os modos TE2 e TM. Além disso, esta influência se torna maior em meios resistivos e nas frequências mais baixas. No entanto, o fator de acoplamento não afeta os dados magnetotelúricos em frequências maiores de 10-2 Hz. Para frequências da ordem de 10-4 Hz os dados MT apresentam duas fontes de perturbação: a primeira e mais evidente é devido à presença fonte 2-D (EEJ e CEJ), que viola a hipótese da onda plana no método MT; e a segunda é causada pelo acoplamento entre os modos TE2 e TM, pois quando a estrutura bidimensional está obliqua à fonte 2-D temos correntes elétricas adicionais ao longo da heterogeneidade. Concluimos assim, que o strike de uma grande estrutura condutiva bidimensional relativamente à direção do EEJ ou CEJ tem de fato influência sobre o campo geomagnético. Por outro lado, para estudos magnetotelúricos rasos (frequências maiores de 10-3 Hz) o efeito do ângulo entre a estrutura geológica 2-D e a direção do EEJ não é tão importante. Contudo, em estudos de litosfera frequências menores de 10-3 Hz) o acoplamento entre os modos TE2 e TM não pode ser ignorado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta uma metodologia para o estudo da ambiguidade na interpretação de dados geofísicos. Várias soluções alternativas, representativas da região de maior ambiguidade no espaço de parâmetros são obtidas, sendo posteriormente grupadas e ordenadas pela análise fatorial modo Q. Esta metodologia foi aplicada a dados sintéticos de campo potencial simulando-se causas de ambiguidade como discretização e truncamento da anomalia e a presença de ruídos aleatório e geológico. Um único prisma foi usado como modelo interpretativo, sendo a espessura a principal causa de ambiguidade tanto na gravimetria como na magnetometria. Segue-se a profundidade do topo sempre associada à espessura, quando o sinal da anomalia é alto. Quando a anomalia tem sinal baixo, a largura torna-se o segundo parâmetro mais importante, também associada à espessura. Ao contrário da presença de interferências geológicas, a presença de ruído aleatório nos campos, não é fator importante na ambiguidade. A aplicação da metodologia a dados reais ilustra o papel desta análise na caracterização de soluções alternativas e a importância da informação a priori na caracterização das causas de ambiguidade. A metodologia apresentada pode ser empregada em diversos estágios de um programa de prospecção fornecendo em cada estágio uma análise dos principais fatores causadores da ambiguidade, que poderá ser util no planejamento dos estágios seguintes. Comparada a outros métodos de análise de ambiguidade, como por exemplo regiões de confiança, a metodologia estudada destaca-se por não precisar satisfazer premissas estatísticas sobre a distribuição dos erros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desenvolveu-se neste trabalho um novo modelo de avaliação quantitativa para arenitos argilosos, baseado na bibliografia e no estudo da disposição dos argilominerais dentro dos poros das rochas reservatório. Este novo modelo leva em consideração a contribuição de duas condutividades extras, além da condutividade eletrolítica das rochas: uma se deve à contribuição efetiva da condutância superficial dos argilominerais, aumentada ou diminuida em função da capacidade de troca catiônica dos mesmos, e outra independente e em paralelo, devido a condutância que se desenvolve em uma rede microporosa contínua formada por argilominerais sobre o arcabouço das rochas. Para o estudo da validade da equação proposta, foram feitos vários gráficos comparativos entre as equações e/ou modelos existentes n” bibliografia especializada, deles resultando ótimas correlações, principalmente com a tradicional equação de Waxman & Smits. Foi feita uma comparação do novo modelo em três seções distintas do Campo de Ubarana, Rio Grande do Norte, duas com baixas resistividades supostamente com hidrocarbonetos e uma outra efetivamente produtora. Verificou-se que as baixas resistividades resultam do fato das seções estudadas serem subsaturadas, com menos de 50% de óleo e aproximadamente igual ou maior proporção de água relativamente salgada (85.000 ppm de NaCl equivalente). Esta mesma água, sem dúvida, muito contribui para as baixas resistividades, por formar a fase eletricamente condutiva das referidas seções. Sendo a equação de Waxman & Smits mundialmente reconhecida, pode-se afirmar que a equação proposta neste trabalho tem consistência teórica e prática e para o caso particular do campo de Ubarana, mostrou-se mais coerente com o histórico de produção dos poços estudados, do que as demais equações existentes e testadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, a decomposição em valores singulares (DVS) de uma matriz A, n x m, que representa a anomalia magnética, é vista como um método de filtragem bidimensional de coerência que separa informações correlacionáveis e não correlacionáveis contidas na matriz de dados magnéticos A. O filtro DVS é definido através da expansão da matriz A em autoimagens e valores singulares. Cada autoimagem é dada pelo produto escalar dos vetores de base, autovetores, associados aos problemas de autovalor e autovetor das matrizes de covariância ATA e AAT. Este método de filtragem se baseia no fato de que as autoimagens associadas a grandes valores singulares concentram a maior parte da informação correlacionável presente nos dados, enquanto que a parte não correlacionada, presumidamente constituída de ruídos causados por fontes magnéticas externas, ruídos introduzidos pelo processo de medida, estão concentrados nas autoimagens restantes. Utilizamos este método em diferentes exemplos de dados magnéticos sintéticos. Posteriormente, o método foi aplicado a dados do aerolevantamento feito pela PETROBRÁS no Projeto Carauari-Norte (Bacia do Solimões), para analisarmos a potencialidade deste na identificação, eliminação ou atenuação de ruídos e como um possível método de realçar feições particulares da anomalia geradas por fontes profundas e rasas. Este trabalho apresenta também a possibilidade de introduzir um deslocamento estático ou dinâmico nos perfis magnéticos, com a finalidade de aumentar a correlação (coerência) entre eles, permitindo assim concentrar o máximo possível do sinal correlacionável nas poucas primeiras autoimagens. Outro aspecto muito importante desta expansão da matriz de dados em autoimagens e valores singulares foi o de mostrar, sob o ponto de vista computacional, que a armazenagem dos dados contidos na matriz, que exige uma quantidade n x m de endereços de memória, pode ser diminuída consideravelmente utilizando p autoimagens. Assim o número de endereços de memória cai para p x (n + m + 1), sem alterar a anomalia, na reprodução praticamente perfeita. Dessa forma, concluímos que uma escolha apropriada do número e dos índices das autoimagens usadas na decomposição mostra potencialidade do método no processamento de dados magnéticos.