42 resultados para Ponto de carga zero
Resumo:
O artigo apresenta reflexões críticas acerca do processo de registro do Círio de Nazaré, de Belém do Pará, como patrimônio cultural imaterial brasileiro, junto ao Instituto do Patrimônio Histórico e Artístico Nacional, em 2004. Trata-se de releitura dos procedimentos adotados pelos pesquisadores responsáveis pela elaboração do inventário e do dossiê que fundamentaram o referido registro. Reflete-se sobre os desdobramentos deste ato sobre os diferentes sujeitos que compõem o Círio de Nazaré, discutindo-se a necessidade de divulgar os resultados da pesquisa entre os grupos sociais envolvidos, de forma a contribuir para a preservação e promoção do bem cultural Círio de Nazaré.
Resumo:
A linhaça é a semente da planta do linho (Linum usitatissimum L.), uma espécie polimorfa originária do linho, sendo considerada uma das 6 plantas atualmente reconhecidas pelo Instituto Nacional do Câncer dos Estados Unidos (US National Cancer Institute - NCI) por suas propriedades específicas no combate ao câncer. Parte desse reconhecimento deve-se a notável característica de ser a fonte mais rica de precursores de lignina (esteróide vegetal de ação análoga ao estrógeno de mamíferos) na dieta humana. A variedade utilizada neste trabalho foi a “Linseed” de cor marrom e o objetivo deste trabalho foi analisar a fluidodinâmica dessa partícula em leito de jorro, estabelecida pelas medidas de tomadas de queda de pressão no leito a partir das deflexões em relação às velocidades de ar crescente e decrescente, obtendo assim informações para a determinação de parâmetros correlacionados ao processo, como: velocidade de mínimo jorro, queda de pressão máxima, queda de pressão no jorro estável e queda de pressão no mínimo jorro. Estes valores foram comparados aos correspondentes valores obtidos por equações empíricas citadas na literatura. Foi também avaliado o comportamento da secagem da matéria prima, mediante um planejamento estatístico 22, tendo com as variáveis de entrada temperatura do gás (Tg) e o tempo de operação (t), para a quantificação das variáveis de resposta razão de umidade (Xr, adim.), germinação (G, %) e o índice de velocidade de germinação (IVG, t-1) e analisadas estatisticamente pelo planejamento fatorial completo com três repetições no ponto central. A cinética de secagem das sementes de linhaça, previamente umidificadas, foi realizada nas temperaturas de 45, 55 e 65 °C, e dentre os três modelos propostos, o modelo de Midilli et al., foi que melhor descreveu aos dados experimentais. Para os parâmetros fluidodinâmicos observou-se que a correlação de Gorshtein e Mukhlenov (1965) apresentou os menores desvios para queda e pressão de mínimo jorro e jorro estável, Abdelrazek (1969) apresentou o menor desvio para a velocidade no mínimo jorro e Pallai e Németh (1969) descreveu adequadamente a queda de pressão máxima. Foi observado que a carga de sementes e a temperatura exerceram influência significativa nos parâmetros fluidodinâmicos em leito de jorro. Com base na análise do planejamento estatístico proposto pode-se concluir que os parâmetros de entrada temperatura do gás e tempo de operação exerceram influência significativa sobre todas as variáveis de resposta, sendo observada influência quadrática das variáveis de entrada ao se observar a significância da curvatura sobre os parâmetros: Razão de umidade, Germinação e Índice de Velocidade de Germinação, propondo-se modelos representativos destes parâmetros com a presença da curvatura, apresentando um coeficiente de determinação (R2) superior a 99 %.
Resumo:
Os vírus linfotrópicos de células T humanas, quando integrados ao genoma da célula hospedeira, provírus, têm como marcador de replicação seu DNA proviral. A carga proviral parece ser um importante fator no desenvolvimento de patologias associadas a estes retrovírus. Neste estudo foi desenvolvida uma metodologia para quantificação absoluta da carga proviral dos HTLV-1 e HTLV-2 através da PCR em tempo real. Cinqüenta e três amostras de doadores de sangue com teste de ELISA reagente foram submetidas à metodologia, que utilizou o sistema TaqMan® para três seqüências alvo: HTLV-1, HTLV-2 e albumina. A quantificação proviral absoluta foi determinada através da proporção relativa entre o genoma do HTLV e o genoma da célula hospedeira, levando em consideração o número de leucócitos. O método apresentado é sensível (215 cópias/mL), prático e simples para quantificação proviral, além de eficiente e adequado para confirmação e discriminação da infecção pelos tipos virais.
Resumo:
Este artigo apresenta um estudo experimental de técnicas de identificação paramétrica aplicadas à modelagem dinâmica de um servidor web Apache. Foi desenvolvido um arranjo experimental para simular variações de carga no servidor. O arranjo é composto por dois computadores PC, sendo um deles utilizado para executar o servidor Apache e o outro utilizado como um gerador de carga, solicitando requisições de serviço ao servidor Apache. Foram estimados modelos paramétricos auto-regressivos (AR) para diferentes pontos de operação e de condição de carga. Cada ponto de operação foi definido em termos dos valores médios para o parâmetro de entrada MaxClients (parâmetro utilizado para definir o número máximo de processos ativos) e a saída percentual de consumo de CPU (Central Processing Unit) do servidor Apache. Para cada ponto de operação foram coletadas 600 amostras, com um intervalo de amostragem de 5 segundos. Metade do conjunto de amostras coletadas em cada ponto de operação foi utilizada para estimação do modelo, enquanto que a outra metade foi utilizada para validação. Um estudo da ordem mais adequada do modelo mostrou que, para um ponto de operação com valor reduzido de MaxClients, um modelo AR de 7a ordem pode ser satisfatório. Para valores mais elevados de MaxClients, os resultados mostraram que são necessários modelos de ordem mais elevada, devido às não-linearidades inerentes ao sistema.
Resumo:
Esta tese apresenta uma metodologia para avaliação de desempenho de redes de acesso banda larga. A avaliação de desempenho de redes é uma forma de identificar e analisar como determinadas características tais como diferentes tipos de tráfego ou formas de utilização, por exemplo, podem influenciar no comportamento da rede em foco, podendo assim prever como tal rede se comportará frente a situações futuras. A metodologia apresentada é composta de duas abordagens: uma abordagem baseada em medições e outra baseada em modelagem via processos Markovianos. As redes analisadas englobam os dois tipos básicos de arquitetura de acesso: redes ADSL2+ (linha digital do assinante assimétrica 2+ – Asymmetric Digital Subscriber Line 2+), as quais são redes cabeadas que utilizam cabos metálicos de pares trançados; redes FBWN (rede sem fio banda larga fixa – Fixed Broadband Wireless Network), as quais são redes sem fio (wireless) baseadas no padrão IEEE 802.16. A abordagem de medições é focada na forma como a rede analisada se comporta frente a três situações: transmissão de um tráfego genérico; impacto de ruídos não-estacionários no sistema; e uso da rede como meio de transmissão de tráfego multimídia em tempo real. A abordagem de modelagem, por sua vez, ´e baseada em prever o comportamento das redes analisadas utilizando uma formulação matemática fundamentada em processos Markovianos. Os resultados apresentados indicam a viabilidade de aplicação desta metodologia como forma de avaliação de desempenho. Os resultados ainda tornam possível a extensão desta metodologia a outros tipos de redes de acesso banda larga, tais como: redes de fibras ópticas, redes de enlaces de microondas, redes VDSL/VDSL2 (linha digital do assinante de alta taxa de dados – Very-high-data-rate DSL), etc.
Resumo:
Os dados sísmicos terrestres são afetados pela existência de irregularidades na superfície de medição, e.g. a topografia. Neste sentido, para obter uma imagem sísmica de alta resolução, faz-se necessário corrigir estas irregularidades usando técnicas de processamento sísmico, e.g. correições estáticas residuais e de campo. O método de empilhamento Superfície de Reflexão Comum, CRS ("Common-Reflection-Surface", em inglês) é uma nova técnica de processamento para simular seções sísmicas com afastamento-nulo, ZO ("Zero-Offset", em inglês) a partir de dados sísmicos de cobertura múltipla. Este método baseia-se na aproximação hiperbólica de tempos de trânsito paraxiais de segunda ordem referido ao raio (central) normal. O operador de empilhamento CRS para uma superfície de medição planar depende de três parâmetros, denominados o ângulo de emergência do raio normal, a curvatura da onda Ponto de Incidência Normal, NIP ("Normal Incidence Point", em inglês) e a curvatura da onda Normal, N. Neste artigo o método de empilhamento CRS ZO 2-D é modificado com a finalidade de considerar uma superfície de medição com topografia suave também dependente desses parâmetros. Com este novo formalismo CRS, obtemos uma seção sísmica ZO de alta resolução, sem aplicar as correições estáticas, onde em cada ponto desta seção são estimados os três parâmetros relevantes do processo de empilhamento CRS.
Resumo:
A Encefalopatia Crônica Não Progressiva da Infância (ECNP) é a sequela neurológica com maior comprometimento motor para a criança, e continua sendo na atualidade a hipóxicoisquemia perinatal a maior causa de lesão cerebral. É conhecida como Paralisia Cerebral, sendo definida por uma sequela de agressão encefálica, caracterizada, principalmente, por um transtorno persistente, mas não invariável do tônus, da postura e do movimento, que aparece na primeira infância. A caracterização da ECNP se faz considerando as condições anatômicas, etiológicas, semiológicas e não evolutiva. Neste estudo adotou-se a classificação baseada em aspectos anatômicos e clínicos, que enfatizam o sintoma motor, enquanto elemento principal do quadro clínico. A neuroimagem tem fundamental importância para o diagnóstico e prognóstico de lesões cerebrais, exercendo a importante função de descartar ou confirmar a presença de lesões em recém-nascidos e nas crianças com alterações no desenvolvimento. A Tomografia Cerebral (TAC) e a Ressonância Magnética do Crânio (RM) vêm desempenhando enorme papel para o estudo dos vários tecidos que constituem o sistema nervoso. Assim este estudo teve o objetivo geral de avaliar os padrões neuropatológicos nas substâncias branca e cinzenta, obtidos por TAC ou RM de Crânio, de pacientes com história clínica de ECNP hipóxico-isquêmica perinatal, correlacionando os dados obtidos por neuroimagem com os padrões motores obtidos por exame clínico-neurológico. Foram obedecidas as normas vigentes para estudo em seres humanos impostas pela Resolução CNS 196/96, submetida ao Comitê de Ética e Pesquisa da Plataforma Brasil sob o Nº 112168. A população foi constituída por pacientes com idade de zero a sete anos, de ambos os sexos, atendidos no Ambulatório de Paralisia Cerebral do Projeto Caminhar do Hospital Universitário Bettina Ferro de Souza (HUBFS), com diagnóstico de ECNP. A amostra do estudo foi composta por 15 crianças com diagnóstico de ECNP por Hipóxia neonatal. Para o diagnóstico radiológico em neuroimagem foram utilizados os dados dos laudos da TAC e da RM de Crânio. A avaliação clínico-neurológica utilizou para a avaliação do movimento o modelo da escala Gross Motor Function Classification System (GMFCS E&R), elaborada por Palisano, que gradua a criança em cinco níveis no qual o Nível I corresponde à normalidade e o Nível V a maior gravidade de limitação. Das 15 crianças avaliadas quanto ao movimento e a relação do Nível de Motricidade pela GMFCS E&R 05 crianças apresentavam nível V, 04 crianças nível IV, 05 crianças nível III e 01 criança nível II. Quanto ao imageamento cerebral 46% realizaram TAC e 54% RM do Crânio. A RM de Crânio apresentou-se neste estudo como a imagem de eleição, pois das 8 crianças que realizaram o exame, 6 apresentavam alterações. Ficou evidente que o exame por imagem de eleição para a criança que apresenta Encefalopatia Crônica não Progressiva é a RM de Crânio, podendo se adotar como protocolo para a conclusão diagnóstica, evitando expor a criança a uma carga elevada de RX como ocorre na TAC, e ainda, evitando gastos desnecessários para a saúde pública.
Resumo:
Diversas atividades de planejamento e operação em sistemas de energia elétrica dependem do conhecimento antecipado e preciso da demanda de carga elétrica. Por este motivo, concessionárias de geração e distribuição de energia elétrica cada vez mais fazem uso de tecnologias de previsão de carga. Essas previsões podem ter um horizonte de curtíssimo, curto, médio ou longo prazo. Inúmeros métodos estatísticos vêm sendo utilizados para o problema de previsão. Todos estes métodos trabalham bem em condições normais, entretanto deixam a desejar em situações onde ocorrem mudanças inesperadas nos parâmetros do ambiente. Atualmente, técnicas baseadas em Inteligência Computacional vêm sendo apresentadas na literatura com resultados satisfatórios para o problema de previsão de carga. Considerando então a importância da previsão da carga elétrica para os sistemas de energia elétrica, neste trabalho, uma nova abordagem para o problema de previsão de carga via redes neurais Auto-Associativas e algoritmos genéticos é avaliada. Três modelos de previsão baseados em Inteligência Computacional são também apresentados tendo seus desempenhos avaliados e comparados com o sistema proposto. Com os resultados alcançados, pôde-se verificar que o modelo proposto se mostrou satisfatório para o problema de previsão, reforçando assim a aplicabilidade de metodologias de inteligência computacional para o problema de previsão de cargas.
Resumo:
Atualmente, devido à necessidade crescente de materiais de bom desempenho mecânico e devido questões ambientais, busca-se cada vez mais a substituição de fibras sintéticas usadas em compósitos (como a fibra de vidro) por fibras naturais. Uma fibra natural que já vem sendo utilizada pela indústria automobilística é a fibra de Curauá (Ananas erectifolius) e apresenta excelente resistência à tração. Na expectativa de melhorar certas propriedades dos compósitos e de reduzir a quantidade de resina, e desse modo o custo, busca-se também o uso de cargas incorporadas à matriz dos compósitos. Em trabalhos recentes têm-se estudado a lama vermelha (resíduo da indústria da bauxita) como carga devido sua alta disponibilidade e baixo custo, além de ser uma resíduo potencialmente perigoso para o ambiente. O objetivo desse trabalho foi analisar os efeitos da adição de lama vermelha em compósitos de poliéster reforçados com fibras naturais de Curauá (Ananas erectifolius). Os resultados mostraram que a utilização da lama vermelha como carga em proporções volumétricas maiores ou iguais a 20% e fibra de curauá em fração volumétrica de 5% provocou um efeito de reforço significativo.
Resumo:
Este estudo discute as percepções da população belenense sobre o período do Regime Militar de 1964, centrando a análise no segmento militar: Militares Graduados da Aeronáutica. Buscamos compreender a vivência destes no cotidiano da capital paraense no período de 1964-1985. Tal se manifesta para além da política e da economia, retratando aspectos da sociedade relativos ao trabalho, ao lazer e à vida privada, na qual as diferentes realidades e instâncias são vivenciadas e adquirem variados sentidos e significados no dia-a-dia. Temos o intuito de compreender os sentidos atribuídos pelos militares a suas atividades diárias, seja no âmbito institucional, seja no meio civil. Utilizamos para esta percepção a documentação (registros fotográficos, jornais internos, cartazes) do Primeiro Comando Aéreo Regional sediado em Belém (I COMAR), além de entrevistas sistematizadas de militares e seus familiares. Essas duas esferas – Civil-Militar – são cruzadas enfocando suas vivências no âmbito civil e podem ter uma relação direta ou indireta com as esferas políticas, econômicas e sociais do Regime Militar.
Resumo:
Mensurar os impactos do tráfego de aplicações interativas para TV Digital nas redes sem fio de 4a geração em especial WIMAX e femtocell tem sido um grande desafio para pesquisadores em todo o mundo, o teste destas tecnologias se mostra promissora para a melhor qualidade de serviço prestado pelas operadoras. Inicialmente, identificando o padrão de tráfego de rede através da aferição e caracterização de tráfego de uma aplicação interativa de TV Digital do Sistema Brasileiro de TV Digital (SBTVD). A partir de então, as simulações são feitas sobre uma rede sem fio. Para este estudo, a rede WiMAX foi escolhida como um de nossos estudo de caso. Um estudo dos impactos do uso desta aplicação em uma WMAN (Wireless Metropolitan Área Network) com WiMAX e também utilizando femtocells. Evidentemente, tecnologias sem fio apresentam uma grande variação da qualidade do sinal. Deste modo, é necessário utilizar uma solução para reduzir essa degradação no sinal. Dentre as possíveis soluções, o uso de femtocells surge como alternativa viável para estas melhorias, lembrando que uso de femtocell esta diretamente ligado para áreas onde o sinal é zero ou muito baixo. A utilização de simulações discretas através de ferramentas apropriadas como o OPNET, se mostram bastante úteis para viabilizar a utilização das tecnologias existentes, expondo-as a condições mais adversas de fluxo, carga , numero de usuários e distancias que certamente influenciam no desempenha de cada uma delas.
Resumo:
Este estudo trata da perspectiva de criação do Estado do Carajás sob o ponto de vista das representações parlamentares dos municípios das regiões sul e sudeste do Pará. As teorias sobre representação política e as críticas da teoria das elites nortearam a análise, visto que a temática da redivisão do território paraense tem inflamado os discursos de candidatos a cargos políticos, e durante a campanha do plebiscito de dezembro de 2011 o debate reverteu-se em animosidade entre as frentes pluripartidárias do sim e do não, pela alegação da frente oponente à emancipação, que a divisão tratava-se de um projeto político das elites locais. De base empírica, o levantamento de campo foi aplicado a vereadores dos 39 municípios da região. A pesquisa revelou que a mobilização política regionalista ancora-se na distância do poder decisório que deixaria a região fora da agenda governamental e enfatiza o esquecimento do poder público estadual. Os vereadores veem o novo estado como uma possibilidade de atender às demandas por políticas públicas e oportunidades de emprego e renda, mas percebem claramente uma oportunidade de crescimento de suas carreiras políticas e de aumentar a paridade na balança da representatividade do norte no Congresso Nacional.
Resumo:
A indústria mineral representa um grande estimulador da economia do estado, e como destaque nessa indústria podemos mencionar o setor do beneficiamento de Caulim. As soluções dos problemas relacionados a essa atividade mostram-se como uma oportunidade rara de interação universidade-indústria, além de ser um campo fértil para o desenvolvimento científico. Um ponto importante a ser estudado trata do escoamento da suspensão de caulim em dutos e equipamentos relacionados; problemas como incrustação e calculo da perda de carga não foram ainda resolvidos de forma definitiva pela indústria. Nesse contexto o presente trabalho se dispõe a desenvolver uma metodologia para o cálculo dos parâmetros de escoamento principalmente da velocidade mínima necessária para que as partículas em suspensão não depositem no interior dos dutos. Assim o objetivo macro desta dissertação reside em analisar através da implementação de metodologia, o cálculo da velocidade de deposição durante o escoamento de polpas de caulim com diferentes frações mássicas (% em peso de sólidos) no interior de dutos circulares; a partir do estudo reológico de amostras obtidas no seu processo de beneficiamento; propiciando assim, subsídio teórico aos técnicos e Engenheiros que desejam dimensionar um sistema de bombeamento aplicado a polpas de caulim; minimizando seus problemas de sub e superdimensionamento, que acarreta a deposição do material, causando danos à produção e meio ambiente, visto que se fará necessário à abertura da tubulação para remoção dos depósitos oriundos da baixa velocidade.
Resumo:
O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.
Resumo:
Neste trabalho é apresentada uma nova técnica para a realização do empilhamento sísmico, aplicada ao problema do imageamento de refletores fixos em um meio bidimensional, suavemente heterogêneo, isotrópico, a partir de dados de reflexão. Esta nova técnica chamada de imageamento homeomórfico tem como base a aproximação geométrica do raio e propriedades topológicas dos refletores. São utilizados, portanto, os conceitos de frente de onda, ângulo de incidência, raio de curvatura da frente de onda, cáustica e definição da trajetória do raio; de tal modo que a imagem obtida mantém relações de homeomorfismo com o objeto que se deseja imagear. O empilhamento sísmico é feito, nesta nova técnica de imageamento, aplicando-se uma correção local do tempo, ∆ t, ao tempo de trânsito, t, do raio que parte da fonte sísmica localizada em xo, reflete-se em um ponto de reflexão, Co, sendo registrado como uma reflexão primária em um geofone localizado em xg, em relação ao tempo de referência to no sismograma, correspondente ao tempo de trânsito de um raio central. A fórmula utilizada nesta correção temporal tem como parâmetros o raio de curvatura Ro, o ângulo de emergência βo da frente de onda, no instante em que a mesma atinge a superfície de observação, e a velocidade vo considerada constante nas proximidades da linha sísmica. Considerando-se uma aproximação geométrica seguido um círculo para a frente de onda, pode-se estabelecer diferentes métodos de imageamento homeomórfico dependendo da configuração de processamento. Sendo assim tem-se: 1) Método Elemento de Fonte (Receptor) Comum (EF(R)C). Utiliza-se uma configuração onde se tem um conjunto de sismogramas relacionado com uma única fonte (receptor), e considera-se uma frente de onda real (de reflexão); 2) Método Elemento de Reflexão Comum (ERC). Utiliza-se uma configuração onde um conjunto de sismogramas é relacionado com um único ponto de reflexão, e considera-se uma frente de onda hipoteticamente originada neste ponto; 3) Método Elemento de Evoluta Comum (EEC). Utiliza-se uma configuração onde cada sismograma está relacionado com um par de fonte e geofone coincidentemente posicionados na linha sísmica, e considera-se uma frente de onda hipoteticamente originada no centro de curvatura do refletor. Em cada um desses métodos tem-se como resultados uma seção sísmica empilhada, u(xo, to); e outras duas seções denominadas de radiusgrama, Ro (xo, to), e angulograma, βo(xo, to), onde estão os valores de raios de curvatura e ângulos de emergência da frente de onda considerada no instante em que a mesma atinge a superfície de observação, respectivamente. No caso do método denominado elemento refletor comum (ERC), a seção sísmica resultante do empilhamento corresponde a seção afastamento nulo. Pode-se mostrar que o sinal sísmico não sofre efeitos de alongamento como consequência da correção temporal, nem tão pouco apresenta problemas de dispersão de pontos de reflexão como consequência da inclinação do refletor, ao contrário do que acontece com as técnicas de empilhamento que tem por base a correção NMO. Além disto, por não necessitar de um macro modelo de velocidades a técnica de imageamento homeomórfico, de um modo geral, pode também ser aplicada a modelos heterogêneos, sem perder o rigor em sua formulação. Aqui também são apresentados exemplos de aplicação dos métodos elemento de fonte comum (EFC) (KEYDAR, 1993), e elemento refletor comum (ERC) (STEENTOFT, 1993), ambos os casos com dados sintéticos. No primeiro caso, (EFC), onde o empilhamento é feito tendo como referência um raio central arbitrário, pode-se observar um alto nível de exatidão no imageamento obtido, além do que é dada uma interpretação para as seções de radiusgrama e angulograma, de modo a se caracterizar aspectos geométricos do model geofísico em questão. No segundo caso, (ERC), o método é aplicado a série de dados Marmousi, gerados pelo método das diferenças finitas, e o resultado é comparado com aquele obtido por métodos convecionais (NMO/DMO) aplicados aos mesmos dados. Como consequência, observa-se que através do método ERC pode-se melhor detectar a continuidade de refletores, enquanto que através dos métodos convencionais caracterizam-se melhor a ocorrência de difrações. Por sua vez, as seções de radiusgrama e angulograma, no método (ERC), apresentam um baixo poder de resolução nas regiões do modelo onde se tem um alto grau de complexidade das estruturas. Finalmente, apresenta-se uma formulação unificada que abrange os diferentes métodos de imageamento homeomórfico citados anteriormente, e também situações mais gerais onde a frente de onda não se aproxima a um círculo, mas a uma curva quadrática qualquer.