56 resultados para CODIGOS CORRETORES DE ERROS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente tese tem como objetivo principal a identificação dos aspectos institucionais, políticos, legais, e econômicos presentes no processo de colonização privada praticados por empresas e famílias nos municípios de São José do Rio Claro e Canarana, ambos no Estado de Mato Grosso. A importância em descortinar tais aspectos se dá em função da necessidade de compreender a colonização privada voltada para pequenos agricultores do Centro-Sul do país, alocados na Amazônia mato-grossense. Os aprofundamentos dessas análises permitirão subsidiar futuros processos de colonização, assim como, mitigar prováveis impactos negativos que se repercutem ainda hoje nesses municípios. A pesquisa foi operacionalizada em estudo de campo em ambos os municípios. A pesquisa bibliográfica e documental procurou levantar os aspectos da história econômica, da ocupação territorial, da presença das organizações e dos processos institucionais que possibilitaram a comercialização das terras e as consequências da colonização privada para pequenos agricultores. Nesse sentido, o estudo confirma a hipótese que a colonização privada ensejou na lógica de produção capitalista latifundiária. O pequeno agricultor do Centro-Sul teve acesso a terra, mas por uma lógica de mercado que possibilitou através das terras devolutas o processo de compra e venda de áreas de tamanhos diversos, até mesmo em quantidades inferiores à permitida pelo órgão oficial do governo. Fomentou a ocupação, o trabalhador rural, principalmente o pequeno também serviu de mão de obra necessária para os grandes projetos capitalistas. Identificou-se que os pequenos produtores não estavam contemplados nos planejamentos das organizações governamentais. A colonização privada empreendida por empresas e famílias se configura como uma continuação da "colonial empresa". A ocupação da Amazônia mato-grossense estabeleceu com a presença das organizações e das instituições públicas e privadas o processo de privatização de terras, tidas por devolutas de Mato Grosso. A burla para a aquisição de terras foi instrumentalizada por leis e organizações que facilitaram a compra junto ao Estado. Essas terras chegaram aos pequenos agricultores do Centro-Sul via comercialização empreendidas pelos colonizadores particulares. Os agricultores migrantes vieram de uma cultura produtiva baseada em um ambiente próprio do sul e sudeste. Em Mato Grosso, enfrentaram dificuldades com o clima e qualidade do solo daqui do Centro-Oeste, gerando uma diferença edafoclimática, limitando a produção agrícola com a cultura que trouxeram. Entre acertos e erros, geraram conhecimentos, próprios de iniciativas endógenas, embora consideram que seu conhecimento de pioneiro não é reconhecido e valorizado nas políticas públicas, que ainda busca assentar pequenos trabalhadores agrícolas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta uma metodologia baseada em algoritmo genético (AG) para determinar modelos dinâmicos equivalentes de parques eólicos com geradores de indução em gaiola de esquilo ( GIGE) e geradores de indução duplamente alimentados ( GIDA), apresentando parâmetros elétricos e mecânicos distintos. A técnica se baseia em uma formulação multiobjetiva solucionada por um AG para minimizar os erros quadráticos das potências ativa e reativa entre modelo de um único gerador equivalente e o modelo do parque eólico investigado. A influência do modelo equivalente do parque eólico no comportamento dinâmico dos geradores síncronos é também investigada por meio do método proposto. A abordagem é testada em um parque eólico de 10MW composto por quatro turbinas eólicas ( 2x2MW e 2x3MW), consistindo alternadamente de geradores GIGE e GIDA interligados a uma barra infinita e posteriormente a rede elétrica do IEEE 14 barras. Os resultados obtidos pelo uso do modelo dinâmico detalhado para a representação do parque eólico são comparados aos do modelo equivalente proposto para avaliar a precisão e o custo computacional do modelo proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pesquisas na área do ensino/aprendizagem da produção escrita em língua estrangeira têm envolvido os estudos sobre o erro apresentado por alunos, incluindo, geralmente, o como e por que fornecer correção a esses erros. Alguns sugerem que a correção desempenha papel tão importante quanto os erros, na aprendizagem, pois a forma como ela é feita pode beneficiar ou prejudicar o desenvolvimento de seus alunos. No intuito de investigar a(s) forma(s) como professores de língua inglesa fornecem a correção de erros escritos a seus alunos, assim como quais os efeitos dessa intervenção na motivação para aprender uma língua estrangeira é que nos propusemos desenvolver esta pesquisa. Para tanto, o referencial teórico utilizado baseia-se nas teorias sobre erro e retorno, escrita em segunda língua (L2) e motivação e retorno motivacional, em especial naquelas encontradas em Figueiredo (2001, 2005), Ferris (2004), Raimes (1991) e Dörnyei (2000-2011, 2001, 2010). A investigação é de caráter observatório não-participante, descritiva e se deu em uma turma do curso de Letras Língua Inglesa, da Universidade Federal do Pará, campus de Marabá. São sujeitos da pesquisa professores deste curso e um grupo de estudantes da graduação. Como instrumentos de coleta de dados, utilizamos observação de aulas, questionários e produção escrita dos alunos. Os resultados obtidos nos mostram que a maior parte dos movimentos corretivos partem do professor. No entanto, percebemos que, quando os alunos participam do processo, há uma maior aceitação, o que pode resultar em possíveis melhorias para a escrita e para a aprendizagem da L2 propriamente dita.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De acordo com o modo causal de seleção por consequências proposto por Skinner, o comportamento humano é o produto de processos seletivos em três níveis: filogênese, ontogênese e cultura. Investigações empíricas que se ocupem do terceiro nível apenas começam a ser realizadas na análise do comportamento. No campo teórico, Glenn introduziu o conceito de Metacontingência para enfocar relações funcionais entre contingências de reforçamento entrelaçadas e um produto agregado que seleciona o próprio entrelaçamento. Um trabalho pioneiro na reprodução em laboratório de uma metacontingência foi produzido por Vichi, a partir da adaptação de um método usado em estudos experimentais na sociologia. O estudo de Vichi sugere que o entrelaçamento dos comportamentos das pessoas de um pequeno grupo pôde ser modificado por produtos agregados que estes entrelaçamentos produziam, caracterizando uma Metacontingência. O presente trabalho consistiu de uma replicação do estudo de Vichi, com o objetivo de verificar se contingências comportamentais entrelaçadas podem de fato ser selecionadas e mantidas por um produto agregado contingente aos comportamentos dos membros de um pequeno grupo em uma microcultura de laboratório. Participaram da pesquisa oito alunos universitários, divididos em dois grupos de quatro, que realizaram uma tarefa em grupo. A tarefa consistiu em resolver um problema, escolhendo uma linha de uma matriz de 8 colunas por 8 fileiras, com sinais positivos e negativos. Os participantes escolhiam as linhas e o experimentador escolhia as colunas. Um sinal positivo na interseção das duas escolhas resultava em ganho para o grupo; um sinal negativo, em perda. A escolha da coluna pelo experimentador não foi aleatória, mas contingente ao modo de distribuição (igualitária ou desigual) dos ganhos pelo grupo na tentativa imediatamente anterior. Na condição experimental A, o acerto era contingente a distribuições igualitárias, já na condição experimental B, o acerto era contingente a distribuições desiguais. Os resultados mostram que o grupo 1 acertou 43% das jogadas (dividiu os recursos de acordo com a condição experimental que estava em vigor) e o grupo 2 acertou 19% das jogadas. Os resultados indicam que o fato do procedimento utilizar consequências (acertos ou erros) contingentes, porém não contíguas ao entrelaçamento do grupo, dificultou a seleção de tal entrelaçamento. Entretanto, contingências de reforçamento entrelaçadas foram selecionadas por seus produtos agregados sob controle de variáveis não controladas no experimento. Caracteriza-se este fenômeno enquanto um análogo experimental de uma metacontingência. Discute-se o procedimento utilizado, possíveis aprimoramentos deste e a complexidade da tarefa experimental, além, também, de discutir alguns padrões de regras supersticiosas que emergiram durante o experimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ensino Programado, Máquinas de Ensinar e o Sistema Personalizado de Instrução (PSI - Personalized System of Instruction) são abordagens comportamentais para o ensino que orientaram a criação de um software instrucional (SII) para o ensino de conceitos de esquemas de reforçamento baseado em tarefas de escolha, com o qual se avaliou duas condições: escolhas entre definições e entre exemplos, com estudantes experientes e ingênuos. A estruturação das tarefas considerou os desempenhos como treino de intraverbais representativos de conceitos. Não ocorreram diferenças marcantes no desempenho entre as condições; estudantes ingênuos e não ingênuos se beneficiaram igualmente nas duas condições (conceitos e exemplos). Ocorreram indícios de transferência de aprendizagem entre a tarefa de escolha e uma tarefa classificatória complementar. A comparabilidade entre as condições complexas usadas, questões de múltipla escolha entre exemplos ou definições de conceitos deve ser abordada cautelosamente. Os erros concentrados no primeiro bloco de questões de cada conceito indicou que as relações modelo-comparação se transferiam para as questões apresentadas nos blocos seguintes. Variações paramétricas em estudos futuros, entretanto, poderão gerar mais evidências de variáveis favorecedoras da aprendizagem de conceitos em tarefas de escolha em computador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A construção ordenada de unidades linguísticas é objeto de estudo da sintaxe e de fundamental interesse nas pesquisas do estudo do comportamento. Desempenhos sintáticos freqüentemente envolvem mudanças que ocorrem na ordem das palavras entre diferentes contextos linguísticos. O objetivo do presente estudo foi investigar a emergência da composição de sentenças escritas a partir do ensino por sobreposição de palavras com controle condicional. Pretendeu-se ainda examinar a manutenção do desempenho a partir da reaplicação do teste com novas sentenças. Um software foi elaborado para apresentação das contingências programadas de ensino, testes e registro dos dados comportamentais. Participaram do estudo seis crianças na faixa etária de oito a dez anos de uma instituição social. Quatro sentenças, duas na voz ativa e duas na voz passiva foram ensinadas aos participantes com o procedimento de sobreposição de palavras. A tarefa do participante consistia em compor sentenças escritas por meio da escolha, na tela do computador, de palavras apresentadas em ordem imprevisível. Após o ensino por sobreposição das sentenças na voz ativa e passiva, estas eram relacionadas condicionalmente à cor verde e vermelha respectivamente. Testes de substituibilidade verificavam a produção de novas sentenças. Após aproximadamente quarenta e cinco dias sem contato com as contingências experimentais, o desempenho emergente era novamente avaliado. Todos os participantes alcançaram o critério de acerto nas fases de ensino. Nos testes de substituibilidade, um participante alcançou 87,5%, dois obtiveram 75% e para os demais, a porcentagem de acerto foi de 62,5%, 50% e 37,5%. Um segundo estudo foi conduzido ampliando o número de tentativas de ensino para três dos participantes que tiveram um desempenho com fraco controle condicional. Os resultados mostraram que dois dos participantes (LUC e DAN) obtiveram respectivamente 100% e 87,5% de acerto nos testes com novas sentenças. O participante POL alcançou apenas 62,5% de acerto nos testes. Os resultados sugerem que esse refinamento do procedimento, para dois dos participantes, produziu a emergência de sentenças com controle condicional, em relação ao desempenho desses participantes no primeiro estudo. O desempenho dos participantes no re-teste ainda é bastante discutível com manutenção para apenas um participante. O presente estudo mostra que o procedimento de ensino por sobreposição de palavras pode gerar a composição de sentenças com poucos erros. O controle condicional precisa ser bem estabelecido e variáveis como a ordem de treino precisa ser investigada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A aprendizagem de relações condicionais bidirecionais (simetria) tem sido raramente demonstrada em não-humanos. Recentemente três estudos apresentaram dados positivos de repertórios comportamentais de simetria em pombos. Estes estudos apontaram como possíveis variáveis determinantes da emergência de simetria: 1) O treino misto de relações arbitrárias e de identidade simultaneamente e com um mesmo conjunto de estímulos; 2) O sujeito não ter sido exposto a treino prévio de qualquer tipo de relação com os mesmos estímulos; e 3) A utilização do procedimento de discriminação condicional sucessiva (Go/No-go). O presente estudo buscou averiguar a necessidade do uso de Go/No-go, aplicando as demais variáveis (treino misto e não exposição prévia), para a obtenção da emergência de simetria. Este estudo avaliou em dois macacos-prego (Cebus apella) a aprendizagem de relações arbitrárias e de identidade de estímulos apresentados na mesma sessão experimental e a emergência de simetria, utilizando dois procedimentos. Um sujeito (M18) foi treinado em tarefa de Go/Nogo com tentativas mistas de relações arbitrárias e relações de identidade, com o mesmo conjunto de estímulos. O sujeito passou por dois treinos Go/No-go que não foram bem sucedidos em estabelecer controle condicional. Um outro sujeito (M27) foi treinado em uma tarefa de emparelhamento ao modelo com atraso zero com tentativas mistas de relações de identidade e arbitrárias, com mesmo conjunto de estímulos. Esse segundo procedimento buscou averiguar a necessidade do uso do procedimento Go/No-go para a obtenção da emergência de simetria. As sessões de treino eram compostas por oito tentativas de identidade (quatro relações) e oito tentativas de relações arbitrárias (duas relações), apresentadas em seqüência randômica. Todas as tentativas tinham três escolhas entre as comparações. Posteriormente, M27 foi submetido a três testes (todos com reforço programado para todas as tentativas). O treino de linha de base mista (identidade e arbitrária) ocorreu em 14 sessões. O primeiro teste foi de simetria, em uma sessão de oito tentativas para cada uma das quatro relações de identidade, duas arbitrárias e duas de teste, totalizando 64 tentativas, cujo critério de desempenho era acertar sete das oito tentativas de cada relação. M27 teve 2 erros em uma das relações de identidade e acertou todas as demais, inclusive as de simetria. Para averiguar se havia uma coerência do controle de estímulos, foi feito o segundo teste no qual as respostas de escolha entre as comparações não podiam mais ser condicionais ao modelo, uma vez que se utilizou um mesmo estímulo novo no lugar dos modelos para todas as tentativas, tanto de linha de base quanto de teste. M27 cometeu três erros ao todo. Esse resultado pode indicar que havia uma relação de controle, não prevista: como dois pares de estímulos se alternavam na função S- em todas as tentativas, M27 pode ter aprendido a rejeitar esses dois pares de estímulos independente do modelo apresentado. De modo a averiguar se de fato não havia controle por seleção de acordo com o modelo, foi feito um teste apenas com duas comparações com as mesmas outras configurações do primeiro teste. M27 errou seis das 32 tentativas de linha de base de identidade, seis das 16 arbitrárias e seis das 16 de simetria. Os acertos foram, portanto, acima da linha do acaso, o que confirma parcialmente a hipótese acima e pode indicar a presença de um controle misto condicional e discriminativo entre os estímulos de comparação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma metodologia para o estudo da ambiguidade na interpretação de dados geofísicos. Várias soluções alternativas, representativas da região de maior ambiguidade no espaço de parâmetros são obtidas, sendo posteriormente grupadas e ordenadas pela análise fatorial modo Q. Esta metodologia foi aplicada a dados sintéticos de campo potencial simulando-se causas de ambiguidade como discretização e truncamento da anomalia e a presença de ruídos aleatório e geológico. Um único prisma foi usado como modelo interpretativo, sendo a espessura a principal causa de ambiguidade tanto na gravimetria como na magnetometria. Segue-se a profundidade do topo sempre associada à espessura, quando o sinal da anomalia é alto. Quando a anomalia tem sinal baixo, a largura torna-se o segundo parâmetro mais importante, também associada à espessura. Ao contrário da presença de interferências geológicas, a presença de ruído aleatório nos campos, não é fator importante na ambiguidade. A aplicação da metodologia a dados reais ilustra o papel desta análise na caracterização de soluções alternativas e a importância da informação a priori na caracterização das causas de ambiguidade. A metodologia apresentada pode ser empregada em diversos estágios de um programa de prospecção fornecendo em cada estágio uma análise dos principais fatores causadores da ambiguidade, que poderá ser util no planejamento dos estágios seguintes. Comparada a outros métodos de análise de ambiguidade, como por exemplo regiões de confiança, a metodologia estudada destaca-se por não precisar satisfazer premissas estatísticas sobre a distribuição dos erros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo principal deste trabalho é avaliar o uso dos dados de altimetria de satélites para mapear a superfície do potencial gravitacional (geóide) no mar. Esta avaliação se faz por comparações da resolução e precisão entre os dados de altimetria processados numa superfície equipotencial (o mar) e dados obtidos a partir de levantamentos convencionais. Uma vez processada a superfície equipotencial, quantidades tais como a anomalia "ar livre" juntamente com o desvio vertical podem ser calculadas. Os dados altimétricos ("altura do mar") utilizados neste trabalho foram coletados pelo satélite GEOSAT. Este satélite rastreou diversas áreas oceânicas do globo processando 44 ciclos em dois anos. Alguns pesquisadores utilizaram os valores médios da "altura do mar" deste satélite para melhoramentos em precisão e resolução dos registros. Estes valores tratados estão disponíveis em NOAA (National Oceanic and Atmospheric Administration) sendo deste modo repassados à UFPa para utilização nesta tese. Os dados de gravimetria marinha utilizados neste trabalho são aqueles obtidos do levantamento "Equatorial Atlantic" (EQUANT I e II) resultantes de uma pesquisa conjunta entre várias instituições com objetivos científicos de conhecer o comportamento da margem equatorial Brasileira. Para comparação e integração entre os dois tipos de dados obtidos através de fontes distintas (medidas de satélite e do navio), poder-se-ia obter a aceleração vertical numa superfície equipotencial partindo-se de um tratamento algébrico dos dados coletados por rastreamento altimétrico do satélite Geosat ou alternativamente poder-se-ia processar transformações dos dados de gravimetria marinha em uma superfície equipotencial equivalente. Em decorrência de diferenças no espaçamento entre as linhas dos levantamentos, ou seja, as linhas das trajetórias do satélite estão largamente espaçadas em comparação com aquelas do levantamento marinho, optou-se por transformar os dados gravimétricos do navio em uma superfície equipotencial. Neste tipo de transformação, consideraram-se vários fatores tais como efeitos "aliasing", nível de ruídos nos levantamentos do navio, redução ao geóide (correção "ar livre"), bem como erros computacionais durante as transformações. Com a supressão parcial desses efeitos (enfatizando o "aliasing") encontrou-se forte correlação entre os dois conjuntos de dados verificando-se um nível de coerência satisfatório a partir do comprimento de onda de 11 km. Comparando-se este resultado com o nível de resolução do satélite Geosat largamente estudado por outros pesquisadores enfatiza-se que de fato a resolução dos valores médios (2 anos) do satélite Geosat aproxima-se da resolução dos levantamentos do Equant I e Equant II.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os efeitos Delaware e Groningen são dois tipos de anomalia que afetam ferramentas de eletrodos para perfilagem de resistividade. Ambos os efeitos ocorrem quando há uma camada muito resistiva, como anidrita ou halita, acima do(s) reservatório(s), produzindo um gradiente de resistividade muito similar ao produzido por um contato óleo-água. Os erros de interpretação produzidos têm ocasionado prejuízos consideráveis à indústria de petróleo. A PETROBRÁS, em particular, tem enfrentado problemas ocasionados pelo efeito Groningen sobre perfis obtidos em bacias paleozóicas da região norte do Brasil. Neste trabalho adaptamos, com avanços, uma metodologia desenvolvida por LOVELL (1990), baseada na equação de Helmholtz para HΦ, para modelagem dos efeitos Delaware e Groningen. Solucionamos esta equação por elementos finitos triangulares e retangulares. O sistema linear gerado pelo método de elementos finitos é resolvido por gradiente bi-conjugado pré-condicionado, sendo este pré-condicionador obtido por decomposição LU (Low Up) da matriz de stiffness. As voltagens são calculadas por um algoritmo, mais preciso, recentemente desenvolvido. Os perfis são gerados por um novo algoritmo envolvendo uma sucessiva troca de resistividade de subdomínios. Este procedimento permite obter cada nova matriz de stiffness a partir da anterior pelo cálculo, muito mais rápido, da variação dessa matriz. Este método permite ainda, acelerar a solução iterativa pelo uso da solução na posição anterior da ferramenta. Finalmente geramos perfis sintéticos afetados por cada um dos efeitos para um modelo da ferramenta Dual Laterolog.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A utilização dos métodos indutivos de propagação E.M. na exploração mineral em regiões tropicais, apresenta grandes dificuldades devido a presença de uma camada superficial condutiva (manto de intemperismo) comumente encontrada nestas regiões. Na região Amazônica, o manto apresenta-se bastante desenvolvido e condutivo, e em regiões semi-áridas, pode-se formar uma fina crosta superficial de sal. Em conseqüência disto, a interpretação dos dados E.M. obtidos para modelos que não consideram uma cobertura condutiva levam a erros consideráveis. Objetivando-se estudar os efeitos do manto sobre anomalias VLF devidas a corpos tabulares inclinados em contato com o manto (manto ohmico), foi realizada uma série de experimentos através do modelamento analógico, considerando-se diferentes parâmetros de resposta para o manto e o corpo. O manto de intemperismo foi simulado por soluções de cloreto de amônia (NH4Cl) dispostas horizontalmente e o corpo condutor por chapas de grafite colocadas em posições inclinadas verticalmente. Utilizou-se quatro corpos condutores e três mantos com diferentes espessuras e condutividades, simulando, desta forma, diversas situações geológicas. Os resultados são dados por simples situações dos corpos localizados em um meio não condutor (ar), onde os parâmetros variados são: profundidade do topo, condutividade e mergulho do corpo. Os efeitos da condutividade da cobertura são amplamente ilustrados e avaliados. Para a análise dos resultados, foi plotado um conjunto de curvas considerando-se os valores pico-a-pico das anomalias de "tilt angle" e de elipsidade. Os resultados foram sintetizados em um outro conjunto de curvas reunidas em diagramas de Argand. Estando ou não o manto presente, observou-se, tanto para o tilt angle quanto para a elipsidade, o efeito do aumento da profundidade é o de reduzir a magnitude pico-a-pico e a forma do pico da anomalia, fazendo com que este afaste-se do ponto de "cross-over". Para um condutor de mesma espessura, o aumento da condutividade causa um ligeiro aumento nas anomalias de tilt angle, e uma atenuação nas anomalias de elipsidade. O efeito geral na variação do mergulho do condutor é o de causar uma assimetria nos perfis de tilt angle e de elipsidade. O aumento da condutância do manto de intemperismo causa um acréscimo nas anomalias de elipsidade e uma ligeira diminuição nas anomalias de tilt angle; porém, a partir de um certo valor de condutância do manto (mantos mais condutivos) tanto as anomalias de tilt angle quanto as anomalias de elipsidade começam a atenuar. Há rotação de fase no sentido anti-horário, sendo mais intensa para grandes valores de número de indução do corpo. Na presença do manto, o corpo parece estar a uma profundidade inferior à verdadeira e a ser menos condutivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resultados obtidos por cálculos Dirac-Fock correlacionados de 4 componentes para o fluoreto do elemento E119 (Eka-Frâncio) com base estável e precisa, livre de prolapso variacional, são reportados neste trabalho. No nível CCSD(T), a distância de equilíbrio Re, frequência harmônica ωe e energia de dissociação De são 2,432 Å, 354,97 cm-1 e 116,92 kcal mol-1, respectivamente. Também são reportados base livre de prolapso variacional de 4 componentes para o elemento 119, uma curva analítica de energia potencial precisa e o espectro vibracional a partir dos dados obtidos no nível CCSD(T). Nossos resultados sugerem que a molécula E119F deva ser menos iônica que seus fluoretos alcalinos homólogos mais leves, em contraste com o senso químico comum baseado nas propriedades periódicas - era de se esperar nesta molécula a ligação química mais iônica possível. Também encontramos que a correção do tipo modelo de carga para negligenciar as integrais do tipo SS resulta em erros insignificantes e acelera os cálculos cerca de 3 vezes no nível CCSD(T) e cerca de 4 vezes no nível DFT/B3LYP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo realiza estimativas da condutividade térmica dos principais minerais formadores de rochas, bem como estimativas da condutividade média da fase sólida de cinco litologias básicas (arenitos, calcários, dolomitos, anidritas e litologias argilosas). Alguns modelos térmicos foram comparados entre si, possibilitando a verificação daquele mais apropriado para representar o agregado de minerais e fluidos que compõem as rochas. Os resultados obtidos podem ser aplicados a modelamentos térmicos os mais variados. A metodologia empregada baseia-se em um algoritmo de regressão não-linear denominado de Busca Aleatória Controlada. O comportamento do algoritmo é avaliado para dados sintéticos antes de ser usado em dados reais. O modelo usado na regressão para obter a condutividade térmica dos minerais é o modelo geométrico médio. O método de regressão, usado em cada subconjunto litológico, forneceu os seguintes valores para a condutividade térmica média da fase sólida: arenitos 5,9 ± 1,33 W/mK, calcários 3.1 ± 0.12 W/mK, dolomitos 4.7 ± 0.56 W/mK, anidritas 6.3 ± 0.27 W/mK e para litologias argilosas 3.4 ± 0.48 W/mK. Na sequência, são fornecidas as bases para o estudo da difusão do calor em coordenadas cilíndricas, considerando o efeito de invasão do filtrado da lama na formação, através de uma adaptação da simulação de injeção de poços proveniente das teorias relativas à engenharia de reservatório. Com isto, estimam-se os erros relativos sobre a resistividade aparente assumindo como referência a temperatura original da formação. Nesta etapa do trabalho, faz-se uso do método de diferenças finitas para avaliar a distribuição de temperatura poço-formação. A simulação da invasão é realizada, em coordenadas cilíndricas, através da adaptação da equação de Buckley-Leverett em coordenadas cartesianas. Efeitos como o aparecimento do reboco de lama na parede do poço, gravidade e pressão capilar não são levados em consideração. A partir das distribuições de saturação e temperatura, obtém-se a distribuição radial de resistividade, a qual é convolvida com a resposta radial da ferramenta de indução (transmissor-receptor) resultando na resistividade aparente da formação. Admitindo como referência a temperatura original da formação, são obtidos os erros relativos da resistividade aparente. Através da variação de alguns parâmetros, verifica-se que a porosidade e a saturação original da formação podem ser responsáveis por enormes erros na obtenção da resistividade, principalmente se tais "leituras" forem realizadas logo após a perfuração (MWD). A diferença de temperatura entre poço e formação é a principal causadora de tais erros, indicando que em situações onde esta diferença de temperatura seja grande, perfilagens com ferramentas de indução devam ser realizadas de um a dois dias após a perfuração do poço.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa apresenta os resultados da aplicação de métodos geofísicos não invasivos, visando a indicação de possíveis locais de deposição de materiais, no levantamento arqueológicos em um sítio estuarino localizado no município de Penalva, no estado do Maranhão. Os métodos utilizados foram Magnetometria e Radar de Penetração no Solo (GPR). As medidas magnéticas foram utilizadas para indicar os locais para escavação. O GPR foi utilizado para confirmar as anomalias geradas pelo método magnético, proporcionando a diminuição de erros quando as anomalias magnéticas não são provenientes de feições arqueológicas. Foram realizados 14 perfis de GPR, utilizando uma antena de 400 MHz e 1664 medidas magnéticas, utilizando o magnetômetro. Durante o levantamento arqueológico realizado, baseando-se nas anomalias fornecidas pela geofísica, a equipe liderada pelos arqueólogos Deusdédit Carneiro Leite Filho e Fernando Luiz Tavares Marques realizou cinco escavações no sítio, o que lhes permitiu o resgate de várias peças cerâmicas. Os resultados apresentados nesta pesquisa permitiram verificar e avaliar a potencialidade da prospecção geofísica como método auxiliar em estudos arqueológicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A saturação de água é a principal propriedade petrofísica para a avaliação de reservatórios de hidrocarbonetos, pois através da análise dos seus valores é definida a destinação final do poço recém perfurado, como produtor ou poço seco. O cálculo da saturação de água para as formações limpas é, comumente, realizado a partir da equação de Archie, que envolve a determinação da resistividade da zona virgem, obtida a partir de um perfil de resistividade profunda e o cálculo de porosidade da rocha, obtida a partir dos perfis de porosidade. A equação de Archie envolve ainda, a determinação da resistividade da água de formação, que normalmente necessita de definição local e correção para a profundidade da formação e da adoção de valores convenientes para os coeficientes de Archie. Um dos métodos mais tradicionais da geofísica de poço para o cálculo da saturação de água é o método de Hingle, particularmente útil nas situações de desconhecimento da resistividade da água de formação. O método de Hingle estabelece uma forma linear para a equação de Archie, a partir dos perfis de resistividade e porosidade e a representa na forma gráfica, como a reta da água ou dos pontos, no gráfico de Hingle, com saturação de água unitária e o valor da resistividade da água de formação é obtido a partir da inclinação da reta da água. Independente do desenvolvimento tecnológico das ferramentas de perfilagem e dos computadores digitais, o geofísico, ainda hoje, se vê obrigado a realizar a interpretação de ábacos ou gráficos, sujeito a ocorrência de erros derivados da sua acuidade visual. Com o objetivo de mitigar a ocorrência deste tipo de erro e produzir uma primeira aproximação para a saturação de água em tempo real de perfilagem do poço, insere-se o trabalho apresentado nesta dissertação, com a utilização de uma conveniente arquitetura de rede neural artificial, a rede competitiva angular, capaz de identificar a localização da reta da água, a partir da identificação de padrões angulares presentes nos dados dos perfis de porosidade e resistividade representados no gráfico de Hingle. A avaliação desta metodologia é realizada sobre dados sintéticos, que satisfazem integralmente a equação de Archie, e sobre dados reais.