43 resultados para A priori


Relevância:

10.00% 10.00%

Publicador:

Resumo:

ABSTRACT: We present here a methodology for the rapid interpretation of aeromagnetic data in three dimensions. An estimation of the x, y and z coordinates of prismatic elements is obtained through the application of "Euler's Homogeneous equation" to the data. In this application, it is necessary to have only the total magnetic field and its derivatives. These components can be measured or calculated from the total field data. In the use of Euler's Homogeneous equation, the structural index, the coordinates of the corners of the prism and the depth to the top of the prism are unknown vectors. Inversion of the data by classical least-squares methods renders the problem ill-conditioned. However, the inverse problem can be stabilized by the introduction of both a priori information within the parameter vector together with a weighting matrix. The algorithm was tested with synthetic and real data in a low magnetic latitude region and the results were satisfactory. The applicability of the theorem and its ambiguity caused by the lack of information about the direction of total magnetization, inherent in all automatic methods, is also discussed. As an application, an area within the Solimões basin was chosen to test the method. Since 1977, the Solimões basin has become a center of exploration activity, motivated by the first discovery of gas bearing sandstones within the Monte Alegre formation. Since then, seismic investigations and drilling have been carried on in the region. A knowledge of basement structures is of great importance in the location of oil traps and understanding the tectonic history of this region. Through the application of this method a preliminary estimate of the areal distribution and depth of interbasement and sedimentary magnetic sources was obtained.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente Dissertação de Mestrado tem como objetivo o estudo do problema de inversão sísmica baseada em refletores planos para arranjo fonte-comum (FC) e ponto-médiocomum (PMC). O modelo direto é descrito por camadas homogêneas, isotrópicas com interfaces plano-horizontais. O problema é relacionado ao empilhamento NMO baseado na otimização da função semblance, para seções PMC corrigidas de sobretempo normal (NMO). O estudo foi baseado em dois princípios. O primeiro princípio adotado foi de combinar dois grupos de métodos de inversão: um Método Global e um Método Local. O segundo princípio adotado foi o de cascata, segundo a teoria Wichert-Herglotz-Bateman, que estabelece que para conhecer uma camada inferior tem-se que conhecer primeiro a camada superior (dissecação). A aplicação do estudo é voltada à simulação sísmica de Bacia Sedimentar do Solimões e de Bacia Marinha para se obter uma distribuição local 1D de velocidades e espessuras para a subsuperfície em horizontes alvo. Sendo assim, limitamos a inversão entre 4 e 11 refletores, uma vez que na prática a indústria limita uma interpretação realizada apenas em número equivalente de 3 a 4 refletores principais. Ressalta-se que este modelo é aplicável como condição inicial ao imageamento de seções sísmicas em regiões geologicamente complexas com variação horizontal suave de velocidades. Os dados sintéticos foram gerados a partir dos modelos relacionados a informações geológicas, o que corresponde a uma forte informação a priori no modelo de inversão. Para a construção dos modelos relacionados aos projetos da Rede Risco Exploratório (FINEP) e de formação de recursos humanos da ANP em andamento, analisamos os seguintes assuntos relevantes: (1) Geologia de bacias sedimentares terrestre dos Solimões e ma rinha (estratigráfica, estrutural, tectônica e petrolífera); (2) Física da resolução vertical e horizontal; e (3) Discretização temporal-espacial no cubo de multi-cobertura. O processo de inversão é dependente do efeito da discretização tempo-espacial do campo de ondas, dos parâmetros físicos do levantamento sísmico, e da posterior reamostragem no cubo de cobertura múltipla. O modelo direto empregado corresponde ao caso do operador do empilhamento NMO (1D), considerando uma topografia de observação plana. O critério básico tomado como referência para a inversão e o ajuste de curvas é a norma 2 (quadrática). A inversão usando o presente modelo simples é computacionalmente atrativa por ser rápida, e conveniente por permitir que vários outros recursos possam ser incluídos com interpretação física lógica; por exemplo, a Zona de Fresnel Projetada (ZFP), cálculo direto da divergência esférica, inversão Dix, inversão linear por reparametrização, informações a priori, regularização. A ZFP mostra ser um conceito út il para estabelecer a abertura da janela espacial da inversão na seção tempo-distância, e representa a influência dos dados na resolução horizontal. A estimativa da ZFP indica uma abertura mínima com base num modelo adotado, e atualizável. A divergência esférica é uma função suave, e tem base física para ser usada na definição da matriz ponderação dos dados em métodos de inversão tomográfica. A necessidade de robustez na inversão pode ser analisada em seções sísmicas (FC, PMC) submetida a filtragens (freqüências de cantos: 5;15;75;85; banda-passante trapezoidal), onde se pode identificar, comparar e interpretar as informações contidas. A partir das seções, concluímos que os dados são contaminados com pontos isolados, o que propõe métodos na classe dos considerados robustos, tendo-se como referência a norma 2 (quadrados- mínimos) de ajuste de curvas. Os algoritmos foram desenvolvidos na linguagem de programação FORTRAN 90/95, usando o programa MATLAB para apresentação de resultados, e o sistema CWP/SU para modelagem sísmica sintética, marcação de eventos e apresentação de resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente método postula uma variação hiperbólica para o contraste de densidade de uma bacia sedimentar em função da profundidade, e tem dois objetivos: (1) delinear o relevo do embasamento de uma bacia, conhecendo-se a anomalia gravimétrica, o contraste de densidade na superfície da bacia e o fator de decaimento do contraste de densidade com a profundidade; (2) estimar, além do relevo, o valor do contraste de densidade na superfície de uma bacia sedimentar e o fator de decaimento do contraste de densidade com a profundidade, sendo fornecida a anomalia gravimétrica e a profundidade do embasamento em alguns pontos da bacia. Nos dois casos o modelo interpretativo é um conjunto de prismas retangulares verticais justapostos, cujas espessuras, que são parâmetros a serem estimados, representam a profundidade da interface de separação entre os sedimentos e o embasamento. As soluções obtidas nos dois problemas acima formulados são estáveis devido à incorporação de informações adicionais sobre a suavidade do relevo estimado, e o conhecimento da profundidade do relevo do embasamento em alguns pontos, fornecido por furos de sondagem. O método foi testado em anomalias gravimétricas sintéticas produzidas pela simulação de bacias sedimentares com relevos suaves. Os resultados mostraram relevos com boa resolução e valores estimados do contraste de densidade na superfície da bacia e do fator de decaimento do contraste de densidade com a profundidade, próximos aos verdadeiros, indicando dessa maneira o potencial do método em interpretações gravimétricas de bacias sedimentares. O método foi aplicado à anomalia Bouguer da Bacia do Recôncavo, Brasil, delineando um relevo com um valor para a profundidade máxima de cerca de 6 km, semelhante ao estimado em interpretações sísmicas. As estimativas para o contraste de densidade na superfície da Bacia e o fator de decaimento com a profundidade foram -0,30 g/cm3 e 30 km, respectivamente, produzindo uma estimativa para a compactação máxima dos sedimentos da ordem de 4%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta um método que utiliza uma função hiperbólica para descrever o decaimento do contraste de densidade com a profundidade em aterros sanitários e lixões, e consiste de duas abordagens: (1) o mapeamento da base de um lixão ou de um aterro sanitário conhecendo-se a anomalia gravimétrica, o contraste de densidade na superfície e o fator de decaimento do contraste de densidade com a profundidade; (2) estimação do contraste de densidade na superfície e o fator de decaimento do contraste de densidade com a profundidade a partir do conhecimento da anomalia gravimétrica e do relevo da base do lixão ou do aterro sanitário; uma variante desta última abordagem utiliza os valores conhecidos de profundidade desses ambientes para gerar a anomalia ajustada e estimar o valor do contraste de densidade na superfície e o fator de decaimento do contraste com a profundidade através da minimização da norma Euclidiana do vetor de resíduos entre as observações e o ajuste. Em ambas abordagens o modelo interpretativo é representado por um conjunto de prismas retangulares justapostos, cujas espessuras são os parâmetros a serem determinados. As soluções encontradas através das duas abordagens são estáveis devido à incorporação de informação sobre a suavidade do relevo estimado. O método foi aplicado a dados sintéticos produzidos pela simulação de aterros sanitários e lixões com até 15 m de profundidades e de relevos suaves. Os resultados das interpretações gravimétricas foram consistentes e revelaram a eficácia do método tanto na abordagem (1) como na abordagem (2). O método também foi aplicado à anomalia Bouguer residual do aterro sanitário da Fazenda Thomas, Indiana, USA, indicando que o contraste de densidade do aterro pode ou ser constante ou apresentar variação máxima de 0,09 g/cm3.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apresentamos um novo método de inversão gravimétrica para estimar o relevo descontínuo do embasamento de bacias sedimentares, cujos pacotes sedimentares podem ter contraste de densidade constante ou variando hiperbolicamente com a profundidade. O método combina a maximização da medida de entropia de ordem zero e a minimização da medida de entropia de primeira ordem do vetor de soluções (profundidades do embasamento). O modelointerpretativo consiste de um conjunto de primas retangulares verticais justapostos, com o contraste de densidade conhecido, cujas espessuras representam as profundidades do embasamento e são os parâmetros a serem determinados. A minimização da entropia de ordem um favorece soluções apresentando descontinuidades abruptas e a maximização da entropia de ordem zero é empregada apenas para evitar sua minimização excessiva. O método foi aplicado a dados sintéticos simulando: (i) bacias intracratônicas com o relevo do embasamento suave ou apresentando descontinuidades abruptas localizadas e (ii) bacias marginais falhadas. No caso de embasamento suave, a comparação dos resultados com aqueles obtidos através da suavidade global e da suavidade ponderada mostrou que ambos os métodos delinearam o embasamento. No caso de embasamentos falhados, seja em bacias intracratônicas ou marginais, as soluções obtidas com a regularização entrópica e a suavidade ponderada foram equivalentes, delineando o embasamento e as descontinuidades, o que não ocorreu com a suavidade global. A regularização entrópica, no entanto, não requereu informação a priori sobre a profundidade, diferentemente da suavidade ponderada. Tanto o método proposto como os métodos das suavidades global e ponderada foram aplicadas a quatro conjuntos de dados reais. O primeiro é proveniente da Ponte do Poema que está localizada no campus da Universidade Federal do Pará, Belém, Pará, permitiu certificar a aplicabilidade prática do método, uma vez que o relevo abaixo da ponte é acessível. O segundo, da porção norte do Steptoe Valley, Nevada, Estados Unidos. As soluções obtidas com a regularização entrópica e com a suavidade ponderada mostram um embasamento apresentando diversas descontinuidades verticais, o que não aconteceu com a suavidade global. O terceiro conjunto provém do graben de San Jacinto, situado na Califórnia, Estados Unidos, que levou a soluções em que o graben é assimétrico e apenas a suavidade ponderada apresentou solução com fundo achatado. O quarto conjunto de dados é oriundo do graben do Büyük Menderes, localizado na Turquia ocidental. As soluções do método proposto e da suavidade ponderada apresentaram grandes deslocamentos verticais, confirmados pela geologia, o que não aconteceu com a suavidade global.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apresentamos um método de inversão de dados gravimétricos para a reconstrução do relevo descontínuo do embasamento de bacias sedimentares, nas quais o contraste de densidade entre o pacote sedimentar e o embasamento são conhecidos a priori podendo apresentar-se constante, ou decrescer monotonicamente com a profundidade. A solução é estabilizada usando o funcional variação total (VT), o qual não penaliza variações abruptas nas soluções. Comparamos o métodoproposto com os métodos da suavidade global (SG), suavidade ponderada (SP) e regularização entrópica (RE) usando dados sintéticos produzidos por bacias 2D e 3D apresentando relevos descontínuos do embasamento. As soluções obtidas com o método proposto foram melhores do que aquelas obtidas com a SG e similares às produzidas pela SP e RE. Por outro lado, diferentemente da SP, o método proposto não necessita do conhecimento a priori sobre a profundidade máxima do embasamento. Comparado com a RE, o método VT é operacionalmente mais simples e requer a especificação de apenas um parâmetro de regularização. Os métodos VT, SG e SP foram aplicados, também, às seguintes áreas: Ponte do Poema (UFPA), Steptoe Valley (Nevada, Estados Unidos), Graben de San Jacinto (Califórnia, Estados Unidos) e Büyük Menderes (Turquia). A maioria destas áreas são caracterizadas pela presença de falhas com alto ângulo. Em todos os casos, a VT produziu estimativas para a topografia do embasamento apresentando descontinuidades bruscas e com alto ângulo, em concordância com a configuração tectônica das áreas em questão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O problema do mapeamento de uma interface separando dois meios homogêneos tem sido tradicionalmente resolvido através da continuação para baixo da anomalia gravimétrica observada. Este procedimento requer a utilização de um filtro passa-baixa ou de um parâmetro de amortecimento, que tendem a diminuir a resolução do relevo estimado da interface. Além disso, o uso da continuação para baixo implica supor (desnecessariamente) que a interface é uma superfície harmônica. Desta forma, a utilização da continuação para baixo é restrita a interfaces que apresentam um relevo suave relativamente à sua profundidade média. As restrições impostas pela continuação para baixo do campo gravimétrico são reduzidas na técnica de inversão proposta para este estudo, cujo objetivo é mapear a interface crosta-manto baseada na incorporação de informações a priori sobre o mínimo momento de inércia da fonte causadora, em relação a um eixo de concentração de massa pré-estabelecido e coincidente com o topo da fonte anômala. Além da introdução de informações sobre o mínimo momento, foi incluída também a possibilidade de haver variação lateral e em profundidade de densidade em setores previamente estabelecidos, o que permite estender a aplicação desta técnica a situações geológicas mais complexas que envolvam a reconstituição de corpos justapostos, que sejam de diferentes naturezas, tais como aqueles presentes em zonas de transição crustal. O método de inversão apresentado foi avaliado em testes usando dados sintéticos e os resultados obtidos mostraram a eficiência desta técnica em recuperar corpos alongados horizontalmente, que apresentem como topo ou base, interfaces arbitrárias a serem mapeadas. Foi também constatada a eficácia do método em reconstituir corpos que comportem variação lateral de densidade que pudessem retratar situações em que se deseja investigar a natureza do embasamento em regiões de transição crustal. Com base nos resultados destes testes, a técnica foi então empregada na inversão gravimétrica de cinco perfis do LEPLAC IV que cruzam a região oceânica adjacente à margem continental sudeste brasileira. Os resultados desta aplicação permitiram inferir a natureza dos corpos que constituem o arcabouço estrutural da região onde encontram-se inseridas a Dorsal de São Paulo e a Zona de Fratura de Porto Alegre, assim como mapear a Moho subjacente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O método de empilhamento por Superfície de Reflexão Comum (SRC) produz seções simuladas de afastamento nulo (AN) por meio do somatório de eventos sísmicos dos dados de cobertura múltipla contidos nas superfícies de empilhamento. Este método não depende do modelo de velocidade do meio, apenas requer o conhecimento a priori da velocidade próxima a superfície. A simulação de seções AN por este método de empilhamento utiliza uma aproximação hiperbólica de segunda ordem do tempo de trânsito de raios paraxiais para definir a superfície de empilhamento ou operador de empilhamento SRC. Para meios 2D este operador depende de três atributos cinemáticos de duas ondas hipotéticas (ondas PIN e N), observados no ponto de emergência do raio central com incidência normal, que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0) , o raio de curvatura da onda ponto de incidência normal (RPIN) e o raio de curvatura da onda normal (RN). Portanto, o problema de otimização no método SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros (β0, RPIN, RN) ótimos associados a cada ponto de amostragem da seção AN a ser simulada. A determinação simultânea destes parâmetros pode ser realizada por meio de processos de busca global (ou otimização global) multidimensional, utilizando como função objetivo algum critério de coerência. O problema de otimização no método SRC é muito importante para o bom desempenho no que diz respeito a qualidade dos resultados e principalmente ao custo computacional, comparado com os métodos tradicionalmente utilizados na indústria sísmica. Existem várias estratégias de busca para determinar estes parâmetros baseados em buscas sistemáticas e usando algoritmos de otimização, podendo estimar apenas um parâmetro de cada vez, ou dois ou os três parâmetros simultaneamente. Levando em conta a estratégia de busca por meio da aplicação de otimização global, estes três parâmetros podem ser estimados através de dois procedimentos: no primeiro caso os três parâmetros podem ser estimados simultaneamente e no segundo caso inicialmente podem ser determinados simultaneamente dois parâmetros (β0, RPIN) e posteriormente o terceiro parâmetro (RN) usando os valores dos dois parâmetros já conhecidos. Neste trabalho apresenta-se a aplicação e comparação de quatro algoritmos de otimização global para encontrar os parâmetros SRC ótimos, estes são: Simulated Annealing (SA), Very Fast Simulated Annealing (VFSA), Differential Evolution (DE) e Controlled Rando Search - 2 (CRS2). Como resultados importantes são apresentados a aplicação de cada método de otimização e a comparação entre os métodos quanto a eficácia, eficiência e confiabilidade para determinar os melhores parâmetros SRC. Posteriormente, aplicando as estratégias de busca global para a determinação destes parâmetros, por meio do método de otimização VFSA que teve o melhor desempenho foi realizado o empilhamento SRC a partir dos dados Marmousi, isto é, foi realizado um empilhamento SRC usando dois parâmetros (β0, RPIN) estimados por busca global e outro empilhamento SRC usando os três parâmetros (β0, RPIN, RN) também estimados por busca global.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo a aplicação de um método de migração com amplitudes verdadeiras, considerando-se um meio acústico onde a velocidade de propagação varia linearmente com a profundidade. O método de migração é baseado na teoria dos raios e na integral de migração de Kirchhoff, procurando posicionar de forma correta os refletores e recuperar os respetivos coeficientes de reflexão. No processo de recuperação dos coeficientes de reflexão, busca-se corrigir o fator de espalhamento geométrico de reflexões sísmicas primárias, sem o conhecimento a priori dos refletores procurados. Ao considerar-se configurações fonte-receptor arbitrárias, as reflexões primárias podem ser imageadas no tempo ou profundidade, sendo as amplitudes do campo de ondas migrado uma medida dos coeficientes de reflexão (função do ângulo de incidência). Anteriormente têm sido propostos alguns algoritmos baseados na aproximação de Born ou Kirchhoff. Todos são dados em forma de um operador integral de empilhamento de difrações, que são aplicados à entrada dos dados sísmicos. O resultado é uma seção sísmica migrada, onde cada ponto de reflexão é imageado com uma amplitude proporcional ao coeficiente de reflexão no ponto. No presente caso, o processo de migração faz uso de um modelo com velocidade que apresenta uma distribuição que varia linearmente com a profundidade, conhecido também como gradiente constante de velocidade. O esquema de migração corresponde a uma versão modificada da migração de empilhamento por difração e faz uso explícito da teoria do raio, por exemplo, na descrição de tempos de trânsito e amplitudes das reflexões primárias, com as quais a operação de empilhamento e suas propriedades podem ser entendidas geometricamente. Efeitos como o espalhamento geométrico devido à trajetória do raio levam a distorção das amplitudes. Estes efeitos têm que ser corregidos durante o processamento dos dados sísmicos. Baseados na integral de migração de Kirchhoff e na teoria paraxial dos raios, foi derivada a função peso e o operador da integral por empilhamento de difrações para um modelo sísmico 2,5-D, e aplicado a uma serie de dados sintéticos em ambientes com ruído e livre de ruído. O resultado mostra a precisão e estabilidade do método de migração em um meio 2,5-D como ferramenta para obter informação sobre as propriedades de refletividade da subsuperfície da terra. Neste método não são levados em consideração a existência de caústicas nem a atenuação devido a fricção interna.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, we propose a hybrid methodology based on Graph-Coloring and Genetic Algorithm (GA) to solve the Wavelength Assignment (WA) problem in optical networks, impaired by physical layer effects. Our proposal was developed for a static scenario where the physical topology and traffic matrix are known a priori. First, we used fixed shortest-path routing to attend demand requests over the physical topology and the graph-coloring algorithm to minimize the number of necessary wavelengths. Then, we applied the genetic algorithm to solve WA. The GA finds the wavelength activation order on the wavelengths grid with the aim of reducing the Cross-Phase Modulation (XPM) effect; the variance due to the XPM was used as a function of fitness to evaluate the feasibility of the selected WA solution. Its performance is compared with the First-Fit algorithm in two different scenarios, and has shown a reduction in blocking probability up to 37.14% when considered both XPM and residual dispersion effects and up to 71.42% when only considered XPM effect. Moreover, it was possible to reduce by 57.14% the number of wavelengths.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo sobre o trabalho escravo está pautado na análise dos princípios gerais e constitucionais que norteiam a matéria, em especial, o princípio da dignidade humana, discutindo principalmente as hipóteses caracterizadoras do crime de redução do trabalhador à condição análoga à de escravo, os bens jurídicos tutelados, e as possíveis formas de combater essa prática. A partir desse referencial, aprofundamos a pesquisa nas formas de atuação preventiva do Estado, como meio de propiciar a inclusão social dos trabalhadores. Ao abordar a problemática do trabalho escravo, buscamos discutir mecanismos de inclusão social, por meio de ações capazes de inibir a prática do trabalho escravo no momento do aliciamento da mão-de-obra. Esta pesquisa tem por finalidade principal chamar a atenção para o problema que vivenciamos ainda hoje no meio rural brasileiro, demonstrando a necessidade de se agir efetivamente contra esta prática secular que é submeter o ser humano a condições subumanas de vida, por meio da superexploração do trabalho, com vistas a coibir este crime desde o momento do aliciamento, e não apenas por meio de ações repressivas como o resgate. Em outras palavras, defendemos a necessidade de atuação no momento a priori da escravidão – na arregimentação. O estudo está dividido em três capítulos, o primeiro destina-se à compreensão teórico-jurídica do trabalho escravo, analisando o crime sob as óticas internacional, constitucional e penalista; o segundo trata da análise das formas de atuação repressiva do Estado, trazendo entendimentos jurisprudenciais trabalhistas e penais a respeito do tema, cujas decisões judiciais foram selecionadas principalmente no Estado do Pará; e o terceiro capítulo traz o estudo de métodos de atuação preventiva, como forma de combate ao trabalho escravo e de promoção da inclusão social, percorrendo detalhadamente as características do aliciamento ilegal de trabalhadores, propondo, ao final, a regularização prévia da relação de trabalho, transformando o aliciamento ilegal em contrato de trabalho regular.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho apresenta uma análise do processo inclusivo, retomando os conceitos de prática pedagógica e inclusão. Com instrumentais da análise de discurso e da análise de conteúdo, analisa entrevistas com professores de atendimento especializado, professores de sala comum e gestores. Descreve inclusão como um conceito cuja rede de sentidos oscila conforme os interesses em jogo, sendo tanto processo que envolve vários agentes e instâncias e exige participação, quanto idealização, definida a priori e devendo ser incorporada de forma acrítica. Aponta o desconhecimento das especificidades de aprendizagem e dos potenciais dos sujeitos e grupos; a sobrevivência do modelo clínico; os estudos da inclusão como apêndice do processo formativo; certas iniciativas com caráter mais integrativo do que inclusivo. Propõe investir na escola concreta, através de modelos de pesquisa interventivo-participativo, e refazer de outro ângulo as questões já formatadas sobre prática pedagógica inclusiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Homens e caranguejos (1967), única narrativa ficcional de Josué Apolônio de Castro (1908-1973), a priori publicada em francês (1966), durante o forçoso exílio do autor em Paris, é sumariamente expressiva desde o prólogo que antecede a trama. Nomeando as páginas introdutórias deste romance como Prefácio um tanto gordo para um romance um tanto magro, Josué de Castro distende, ao retomar num tempo que já considerava anacrônico, o hábito pela escrita prefacial, a concepção de paratexto ampliada por Gerard Genette (1930), em Palimpsestes (1982). Apresentando a fome pelas recordações infantis que dela possui, o autor aguça no público-leitor a vontade de tatear, rente a seu olhar aparentemente ingênuo de criaa e, de ficcionista de “primeira viagem”, o macrocosmo de memórias da fome que lhe serve como porto de partida para a criação de um microcosmo lúdico e faminto, pelo qual a imaginação e impossibilidade de re-apresentação total do vivido na linguagem, rearranjam a realidade da condição humana, reinventando-a pela articulação dramática dos elementos formais, sobretudo, tempo-espaço, narrador e personagem. A ficção se põe no ritmo fragmentado de aventuras e desventuras assumidas a partir dos intervalos da memória. Serão sumários nos estudos mnemônicos, as apreciações de Henri Bergson em Matéria e memória (1896), Jacques Le Goff em História e memória (1924) e Maurice Halbwachs, na publicação póstuma de A memória coletiva (1950), em face de serem fontes subsidiárias da aproximação entre os estudos da memória e a literatura. Laa-se mão da lembraa a fim de legendar os diálogos futuros entre o protagonista infantil, João Paulo, ávido pela liberdade sonhadora própria da criaa, e as memórias de outros experientes personagens, nem tão esperançosos assim. Dá-se na narrativa o tom que oscila entre a transformação e a acomodação do eu e do outro, de espaços simbioticamente incertos e unidos por suas fomes. Fome que é, desde então, a personagem modeladora, que provoca o diálogo da presente pesquisa com o modo de apreensão que é dado por Angela Faria, na dissertação Homens e caranguejos: uma trama interdisciplinar. A literatura topofílica e telúrica (2008). Vislumbra-se no elemento famélico uma função que vai além da tematização social do subdesenvolvimento, como agente que apalpa com mãos-de-ferro o estrato formal e interno da obra.