40 resultados para Derivados do leite - Processamento
Resumo:
O objetivo do experimento foi testar a eficácia de diferentes diluidores, a base de Ringer-Lactato, Leite Desnatado, TRIS (hidroxi-methil-amino-methan) e Lactose/TRIS, na criopreservação de sêmen bubalino. Foram utilizados três machos bubalinos da raça Murrah em plena atividade sexual. O sêmen foi colhido por vagina artificial totalizando 71 ejaculados. Após a colheita, cada amostra foi submetida às análises qualitativas e quantitativas do sêmen. Os ejaculados foram fracionados e diluídos nos quatro diluidores. O sêmen diluído foi envasado em palhetas de 0,25ml e submetidos a um tempo de equilíbrio de até quatro horas a 5ºC, com posterior congelação em nitrogênio líquido. As amostras identificadas foram descongeladas em banho maria à temperatura de 40°C por 30 segundos e seqüencialmente avaliadas quanto a motilidade, vigor, lesão de acrossoma, e percentual de patologias espermáticas. As amostras também foram submetidas ao teste de termo-resistência, permanecendo incubadas à temperatura de 40°C durante 30 segundos, 3-5 minutos, 30 minutos, 1 hora, 2 horas e 3 horas, onde foram avaliadas quanto a motilidade e o vigor espermático. As características físicoquímicas, após análise do sêmen in natura, encontraram-se dentro dos valores preconizados para a espécie bubalina e satisfatórios para o processo de congelação. Após descongelação do sêmen, observou redução numérica estatística (p<0,05) na motilidade espermática, sendo que no sêmen in natura se observou 86,67±6,17% reduzindo para 70±6,92% em TRIS, 67,4±8,01% em Ringer/lactato, 67,09±9,03% em Lactose/TRIS e 59,7±9,05% em leite desnatado e ao comparar entre os quatro tratamentos apenas o Leite desnatado mostrou diferença estatística significativa (p<0,05). Após descongelação, o vigor espermático também diminuiu estatisticamente (p<0,05) nos quatro tratamentos (3,50±0,53 TRIS; 3,38±0,49 Ringer-lactato; 3,3±0,46 Lactose/TRIS e 3,25±0,44 Leite desnatado) versus (4±0,39 sêmen in natura) e ao comparar entre os tratamento, apenas entre Leite desnatado e TRIS se observou diferença estatística (p<0,05). Quanto aos defeitos maiores (4,15±1,9% sêmen in natura; 10,51±4,4% TRIS; 11,94±4,2% Ringer-Lactato; 11,88±4,8% Lactose/TRIS; 12,01±5% Leite desnatado), menores (3,81±1,2% sêmen in natura; 4,67±1,1% TRIS; 4,98±1,7% Ringer-Lactato; 4,93±2,0% Lactose/TRIS; 4,93±2,0% Leite desnatado) e totais (7,91±2,1% sêmen in natura; 15,18±4,7% TRIS; 16,92±4,8% Ringer-Lactato; 16,82±5,6% Lactose/TRIS; 17,11±5,6% Leite desnatado), após descongelação houve aumento significativo dos defeitos nos quatro tratamentos (p<0,05), e entre eles não foram observadas diferenças estatísticas entre si (p>0,05). Na fase pós-TTR, após 3 horas de incubação, a motilidade progressiva (TRIS 21,13±7,5%; Ringer-Lactato 20,78±7,4%; Lactose/TRIS 20,25±5,3%; Leite desnatado 20,12±6,6%) e vigor espermático (TRIS 2,04±0,5; Ringer-Lactato 2,07±0,5; Lactose/TRIS 2,02±0,4; Leite desnatado 2,00±0,5) não apresentaram diferença estatística entre os tratamentos (p<0,05). Quanto a intergridade do acrossoma, após a descongelação (Sêmen in natura 97,85±0,6%; TRIS 91,65±4,3%; Ringer-Lactato 90,46±4,8%; Lactose/TRIS 89,76±5,4%; Leite desnatado 90,56±5,6%), houve diminuição estatística (p<0,05) e quando se comparou tal parâmetro entre os tratamentos não foi observado diferenças estatísticas significativas entre os tratamento (p>0,05). Diante dos resultados observados é possível concluir que a congelação de sêmen de búfalo com os diluidores TRIS (Trishydroxy- methyl-amino-methan), Ringer-Lactato, Lactose/TRIS, e Leite desnatado mostraram satisfatória função de crioproteção na viabilidade espermática do sêmen nas diferentes etapas da criopreservação.
Resumo:
O objetivo deste estudo foi estimar a entropia conjunta do sistema visual humano no domínio do espaço e no domínio das freqüências espaciais através de funções psicométricas. Estas foram obtidas com testes de discriminação de estímulos com luminância ou cromaticidade moduladas por funções de Gábor. A essência do método consistiu em avaliar a entropia no domínio do espaço, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em extensão espacial, e avaliar a entropia no domínio das freqüências espaciais, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em freqüência espacial. A entropia conjunta foi calculada, então, a partir desses dois valores individuais de entropia. Três condições visuais foram estudadas: acromática, cromática sem correção fina para eqüiluminância e cromática com correção para eqüiluminância através de fotometria com flicker heterocromático. Quatro sujeitos foram testados nas três condições, dois sujeitos adicionais foram testados na condição cromática sem eqüiluminância fina e um sétimo sujeito também fez o teste acromático. Todos os sujeitos foram examinados por oftalmologista e considerados normais do ponto de vista oftálmico, não apresentando relato, sintomas ou sinais de disfunções visuais ou de moléstias potencialmente capazes de afetar o sistema visual. Eles tinham acuidade visual normal ou corrigida de no mínimo 20/30. O trabalho foi aprovado pela Comissão de Ética em Pesquisa do Núcleo de Medicina Tropical da UFPA e obedeceu às recomendações da Declaração de Helsinki. As funções de Gábor usadas para modulação de luminância ou cromaticidade compreenderam redes senoidais unidimensionais horizontais, moduladas na direção vertical, dentro de envelopes gaussianos bidimensionais cuja extensão espacial era medida pelo desvio padrão da gaussiana. Os estímulos foram gerados usando-se uma rotina escrita em Pascal num ambiente Delphi 7 Enterprise. Foi utilizado um microcomputador Dell Precision 390 Workstation e um gerador de estímulos CRS VSG ViSaGe para exibir os estímulos num CRT de 20”, 800 x 600 pixels, 120 Hz, padrão RGB, Mitsubishi Diamond Pro 2070SB. Nos experimentos acromáticos, os estímulos foram gerados pela modulação de luminância de uma cor branca correspondente à cromaticidade CIE1931 (x = 0,270; y = 0,280) ou CIE1976 (u’ = 0,186; v’= 0,433) e tinha luminância média de 44,5 cd/m2. Nos experimentos cromáticos, a luminância média foi mantida em 15 cd/m2 e foram usadas duas series de estímulos verde-vermelhos. Os estímulos de uma série foram formados por duas cromaticidades definidas no eixo M-L do Espaço de Cores DKL (CIE1976: verde, u’=0,131, v’=0,380; vermelho, u’=0,216, v’=0,371). Os estímulos da outra série foram formados por duas cromaticidades definidas ao longo de um eixo horizontal verde-vermelho definido no Espaço de Cores CIE1976 (verde, u’=0,150, v’=0,480; vermelho, u’=0,255, v’=0,480). Os estímulos de referência eram compostos por redes de três freqüências espaciais diferentes (0,4, 2 e 10 ciclos por grau) e envelope gaussiano com desvio padrão de 1 grau. Os estímulos de testes eram compostos por uma entre 19 freqüências espaciais diferentes em torno da freqüência espacial de referência e um entre 21 envelopes gaussianos diferentes com desvio padrão em torno de 1 grau. Na condição acromática, foram estudados quatro níveis de contraste de Michelson: 2%, 5%, 10% e 100%. Nas duas condições cromáticas foi usado o nível mais alto de contraste agregado de cones permitidos pelo gamut do monitor, 17%. O experimento consistiu numa escolha forçada de dois intervalos, cujo procedimento de testagem compreendeu a seguinte seqüência: i) apresentação de um estímulo de referência por 1 s; ii) substituição do estímulo de referência por um fundo eqüiluminante de mesma cromaticidade por 1 s; iii) apresentação do estímulo de teste também por 1 s, diferindo em relação ao estímulo de referência seja em freqüência espacial, seja em extensão espacial, com um estímulo sonoro sinalizando ao sujeito que era necessário responder se o estímulo de teste era igual ou diferente do estímulo de referência; iv) substituição do estímulo de teste pelo fundo. A extensão espacial ou a freqüência espacial do estímulo de teste foi mudada aleatoriamente de tentativa para tentativa usando o método dos estímulos constantes. Numa série de 300 tentativas, a freqüencia espacial foi variada, noutra série também de 300 tentativas, a extensão espacial foi variada, sendo que cada estímulo de teste em cada série foi apresentado pelo menos 10 vezes. A resposta do indivíduo em cada tentativa era guardada como correta ou errada para posterior construção das curvas psicométricas. Os pontos experimentais das funções psicométricas para espaço e freqüência espacial em cada nível de contraste, correspondentes aos percentuais de acertos, foram ajustados com funções gaussianas usando-se o método dos mínimos quadrados. Para cada nível de contraste, as entropias para espaço e freqüência espacial foram estimadas pelos desvios padrões dessas funções gaussianas e a entropia conjunta foi obtida multiplicando-se a raiz quadrada da entropia para espaço pela entropia para freqüência espacial. Os valores de entropia conjunta foram comparados com o mínimo teórico para sistemas lineares, 1/4π ou 0,0796. Para freqüências espaciais baixas e intermediárias, a entropia conjunta atingiu níveis abaixo do mínimo teórico em contrastes altos, sugerindo interações não lineares entre dois ou mais mecanismos visuais. Este fenômeno occorreu em todas as condições (acromática, cromática e cromática eqüiluminante) e foi mais acentuado para a frequência espacial de 0,4 ciclos / grau. Uma possível explicação para este fenômeno é a interação não linear entre as vias visuais retino-genículo-estriadas, tais como as vias K, M e P, na área visual primária ou em níveis mais altos de processamento neural.
Resumo:
Neste trabalho, fizemos uma investigação sobre o estudo teórico das características I x V e C x V de Nanotubo Carbono de Parede Simples (NCPS) puro, com Nitrogênio substitucional carregado com cargas -1 (caracterizando um indicativo de dopagem tipo n) e +1 (caracterizando um indicativo de dopagem tipo p) e na presença de grupos doador (NO2)-aceitador (NH2), através da simulação computacional do estado fundamental de NCPS, bem como de sua estrutura eletrônica e propriedades ópticas, utilizando parametrizações semi-empíricas AM1 (Austin Mudel 1) e ZINDO/S-ClS (Zerner´s lntermediate Neglect of Differential Orbital/Spectroscopic - Cunfiguration lnteraction Single) derivadas da Teoria de Hartree-Fock baseada em técnicas de química quântica. Por meio deste modelo teórico analisamos as propriedades ópticas e eletrônicas, de maior interesse para esses materiais, a fim de se entender a melhor forma de interação desses materiais na fabricação de dispositivos eletrônicos, tais como TECs (Transistores de Efeito de Campo) ou em aplicações em optoeletrônica tais como DEL (Dispositivo Emissor de Luz). Observamos que NCPS com Nitrogênio substitucional apresentam defeitos conformacionais do tipo polarônico. Fizemos as curvas dos espectros UV-visível de Absorção para NCPS armchair e zigzag puro, com Nitrogênio substitucional carregado com cargas (-1 e +1) e na presença de grupos doador (NO2)-aceitador (NH2), quando perturbados por intensidades diferentes de campo elétrico. Verificamos que em NCPS zigzag ao aumentarmos a intensidade do campo elétrico, suas curvas sofrem grandes perturbações. Obtivemos as curvas p x E, I x V e C x V para esses NCPS, concluímos que NCPS armchair possui comportamento resistor, pois suas curvas são lineares e zigzag possui comportamento semelhante ao dos dispositivos eletrônicos importantes para o avanço tecnológico. Assim, nossos resultados estão de bom acordo com os resultados experimentais e teóricos de NCPS puro e com Nitrogênio encontrados na literatura.
Resumo:
Na apresentação do desenvolvimento desta tese foram utilizados métodos ab initio, semiempíricos, e teoria do funcional densidade na investigação das propriedades do estado fundamental e estados excitados do Resveratrol e estruturas moleculares similares, assim como suas propriedades espectroscópicas. O Resveratrol é uma fitoalexina com propriedades antioxidantes, que tem como estruturas derivadas semelhantes, a Piceatannol, Para-vinylphenylphenol e Resveratrol-dihydroxyl_N (N=1,2 e 3). Os resultados obtidos correspondem à análise dos parâmetros moleculares e propriedades eletrônicas; as simulações dos espectros que correspondem as fotoexcitações para cada uma das moléculas foram feitos através de pacotes computacionais. Os métodos aproximativos utilizados nos cálculos comprovam os resultados obtidos experimentalmente, de forma a contribuir como um indicador às prováveis modificações nas propriedades químicas, físicas e biológicas do Resveratrol.
Resumo:
Um estudo teórico detalhado da edaravona foi realizado usando o método TFD (Teoria do Funcional da Densidade) com o conjunto de base B3LYP/6-31G*, com o objetivo de esclarecer o mecanismo sequestraste de radical e a influência do tautomerismo da edaravona em condições ácidas, importantes para auxiliar na elucidação do mecanismo de sequestro de radical pela edaravona no processo isquêmico. Em estudos teóricos anteriores, a tautomerização, o efeito do solvente e a abstração do elétron não foram considerados. Em nosso estudo, a estabilidade e reatividade foram determinadas através de parâmetros geométricos e energéticos. Os cálculos foram realizados em fase gasosa e o método PCM em fase aquosa e metanólica. As condições ácidas ou básicas foram consideradas pelas energias de dissociação e protonação, com consequente formação das formas aniônicas e catiônicas, respectivamente. As propriedades antioxidantes foram calculadas com base nos valores de HOMO, potencial de ionização (PI) e energia de dissociação da ligação (EDL). Os valores de HOMO e PI mostraram que o tautomero N-H é melhor antioxidante pela saída do elétron e os valores de EDL mostraram que o tautomero O-H é melhor antioxidante pela saída de hidrogênio. A protonação é mais favorecida termodinamicamente que a desprotonação. Além disso, a energia de protonação explica, teoricamente, a baixa diferença entre a protonação do N e O. O efeito do solvente diminuiu as barreiras de energias para a isomerização nos tautomeros O-H ou N-H. Adicionalmente, foram avaliados três derivados de pirazolonas com suas capacidades antioxidantes comparadas com a edaravona, em um esforço para identificar o farmacóforo antioxidante. A capacidade antioxidante da antipirina, dipirona, fenilbutazona e edaravona foram determinadas pela inibição de dois radicais estáveis DPPH e ABTS. A edaravona e fenilbutazona foram as mais potente para a inibição de radical DPPH e ABTS que a dipirona, enquanto que a antipirina não mostrou atividade em todas as concentrações analisadas. Simultaneamente, o método TFD previu o valor do potencial antioxidante in silico para explicar a relação de estrutura-atividade (REA). Além disso, foram calculados seus valores de HOMO, EDL X-H, e energia de estabilização (DEiso). Todos os cálculos foram executados usando o programa Gaussian 03, Hyperchem 7.5, e ChemOffice 2005. Os resultados mostraram que o derivado com C-H na posição C-4 aumentou a abstração do elétron ou de hidrogênio. Finalmente, a estratégia geral empregada para planejar os novos derivados se baseou nos estudos de dezoito derivados da edaravona descritos na literatura. Os estudos de REA classificaram os compostos em três grupos, como mais ativo, ativo e menos ativo. Nove derivados foram planejados a partir do composto mais ativo selecionado pelo estudo teórico.
Resumo:
O objetivo central deste trabalho é o estudo e a aplicação do método Kalman-Bucy no processo de deconvolução ao impulso e de deconvolução com predição, onde é considerado que os dados observados são classificados como não-estacionários. Os dados utilizados neste trabalho são sintéticos e, com isto, esta Tese tem características de um exercício numérico e investigativo. O operador de deconvolução ao impulso é obtido a partir da teoria de CRUMP (1974) fazendo uso das soluções das equações Wiener-Hopf apresentadas por KALMAN-BUCY (1961) nas formas contínuas e discretas considerando o processo como não estacionário. O operador de predição (KBCP) está baseado nas teorias de CRUMP (1974) e MENDEL ET AL (1979). Sua estrutura assemelha-se ao filtro Wiener-Hopf onde os coeficientes do operador (WHLP) são obtidos através da autocorrelação, e no caso (KBCP) são obtidos a partir da função bi(k). o problema é definido em duas etapas: a primeira consta da geração do sinal, e a segunda da sua avaliação. A deconvolução realizada aqui é classificada como estatística, e é um modelo fortemente baseado nas propriedades do sinal registrado e de sua representação. Os métodos foram aplicados apenas em dados sintéticos de seção fonte-comum obtida a partir dos modelos com interfaces contínuas e camadas homogêneas.
Resumo:
Nas bacias sedimentares da região Amazônica, a geração e o acúmulo de hidrocarboneto estão relacionados com a presença das soleiras de diabásio. Estas rochas magmáticas intrusivas possuem grandes contrastes de impedância com as rochas sedimentares encaixantes, resultando em múltiplas externas e internas, com amplitudes semelhantes às das reflexões sísmicas primárias. Estas múltiplas podem predominar sobre as informações oriundas de interfaces mais profundas, dificultando o processamento, a interpretação e o imageamento da seção de sísmica. O objetivo da presente tese é realizar a atenuação de múltiplas em seções sintéticas fontecomum (CS), através da combinação dos métodos Wiener-Hopf-Levinson de predição (WHLP) e o do empilhamento superfície-de-reflexão-comum (CRS), aqui denominando pela sigla WHLPCRS. O operador de deconvolução é calculado com as amplitudes reais do sinal sísmico e traço-a-traço, o que consideramos como uma melhor eficiência para a operação de atenuação. A identificação das múltiplas é feita na seção de afastamento-nulo (AN) simulada com o empilhamento CRS, utilizando o critério da periodicidade entre primária e suas múltiplas. Os atributos da frente de onda, obtidos através do empilhamento CRS, são utilizados na definição de janelas móveis no domínio tempo-espaço, e usados para calcular o operador WHLP-CRS. No desenvolvimento do presente trabalho, visamos evitar a inconveniência da seção processada ZO; desenhar e aplicar operadores na configuração CS; e estender o método WHL para camadas curvas.
Resumo:
Apresentamos dois métodos de interpretação de dados de campos potenciais, aplicados à prospecção de hidrocarbonetos. O primeiro emprega dados aeromagnéticos para estimar o limite, no plano horizontal, entre a crosta continental e a crosta oceânica. Este método baseia-se na existência de feições geológicas magnéticas exclusivas da crosta continental, de modo que as estimativas das extremidades destas feições são usadas como estimativas dos limites da crosta continental. Para tanto, o sinal da anomalia aeromagnética na região da plataforma, do talude e da elevação continental é amplificado através do operador de continuação analítica para baixo usando duas implementações: o princípio da camada equivalente e a condição de fronteira de Dirichlet. A maior carga computacional no cálculo do campo continuado para baixo reside na resolução de um sistema de equações lineares de grande porte. Este esforço computacional é minimizado através do processamento por janelas e do emprego do método do gradiente conjugado na resolução do sistema de equações. Como a operação de continuação para baixo é instável, estabilizamos a solução através do funcional estabilizador de primeira ordem de Tikhonov. Testes em dados aeromagnéticos sintéticos contaminados com ruído pseudo-aleatório Gaussiano mostraram a eficiência de ambas as implementações para realçar os finais das feições magnéticas exclusivas da crosta continental, permitindo o delineamento do limite desta com a crosta oceânica. Aplicamos a metodologia em suas duas implementações a dados aeromagnéticos reais de duas regiões da costa brasileira: Foz do Amazonas e Bacia do Jequitinhonha. O segundo método delineia, simultaneamente, a topografia do embasamento de uma bacia sedimentar e a geometria de estruturas salinas contidas no pacote sedimentar. Os modelos interpretativos consistem de um conjunto de prismas bidimensionais verticais justapostos, para o pacote sedimentar e de prismas bidimensionais com seções verticais poligonais para as estruturas salinas. Estabilizamos a solução, incorporando características geométricas do relevo do embasamento e das estruturas salinas compatíveis com o ambiente geológico através dos estabilizadores da suavidade global, suavidade ponderada e da concentração de massa ao longo de direções preferenciais, além de vínculos de desigualdade nos parâmetros. Aplicamos o método a dados gravimétricos sintéticos produzidos por fontes 2D simulando bacias sedimentares intracratônicas e marginais apresentando densidade do pacote sedimentar variando com a profundidade segundo uma lei hiperbólica e abrigando domos e almofadas salinas. Os resultados mostraram que o método apresenta potencial para delinear, simultaneamente, as geometrias tanto de almofadas e domos salinos, como de relevos descontínuos do embasamento. Aplicamos o método, também, a dados reais ao longo de dois perfis gravimétricos sobre as Bacias de Campos e do Jequitinhonha e obtivemos interpretações compatíveis com a geologia da área.
Resumo:
Um registro sísmico é frequentemente representado como a convolução de um pulso-fonte com a resposta do meio ao impulso, relacionada ao caminho da propagação. O processo de separação destes dois componentes da convolução é denominado deconvolução. Existe uma variedade de aproximações para o desenvolvimento de uma deconvolução. Uma das mais comuns é o uso da filtragem linear inversa, ou seja, o processamento do sinal composto, através de um filtro linear, cuja resposta de frequência é a recíproca da transformada de Fourier de um dos componentes do sinal. Obviamente, a fim de usarmos a filtragem inversa, tais componentes devem ser conhecidas ou estimadas. Neste trabalho, tratamos da aplicação a sinais sísmicos, de uma técnica de deconvolução não linear, proposta por Oppenheim (1965), a qual utiliza a teoria de uma classe de sistemas não lineares, que satisfazem um princípio generalizado de superposição, denominados de sistemas homomórficos. Tais sistemas são particularmente úteis na separação de sinais que estão combinados através da operação de convolução. O algoritmo da deconvolução homomórfica transforma o processo de convolução em uma superposição aditiva de seus componentes, com o resultado de que partes simples podem ser separadas mais facilmente. Esta classe de técnicas de filtragem representa uma generalização dos problemas de filtragem linear. O presente método oferece a considerável vantagem de que não é necessário fazer qualquer suposição prévia sobre a natureza do pulso sísmico fonte, ou da resposta do meio ao impulso, não requerendo assim, as considerações usuais de que o pulso seja de fase-mínima e que a distribuição dos impulsos seja aleatória, embora a qualidade dos resultados obtidos pela análise homomórfica seja muito sensível à razão sinal/ruído, como demonstrado.
Resumo:
O filtro de Kalman é aplicado para filtragem inversa ou problema de deconvolução. Nesta dissertação aplicamos o método de Kalman, considerado como uma outra visão de processamento no domínio do tempo, para separar sinal-ruído em perfil sônico admitido como uma realização de um processo estocástico não estacionário. Em um trabalho futuro estudaremos o problema da deconvolução. A dedução do filtro de Kalman destaca a relação entre o filtro de Kalman e o de Wiener. Estas deduções são baseadas na representação do sistema por variáveis de estado e modelos de processos aleatórios, com a entrada do sistema linear acrescentado com ruído branco. Os resultados ilustrados indicam a aplicabilidade dessa técnica para uma variedade de problemas de processamento de dados geofísicos, por exemplo, ideal para well log. O filtro de Kalman oferece aos geofísicos de exploração informações adicionais para o processamento, problemas de modelamento e a sua solução.
Resumo:
A motivação geológica deste trabalho reside no imageamento de estruturas de bacias sedimentares da região Amazônica, onde a geração e o acúmulo de hidrocarboneto estão relacionados com a presença de soleiras de diabásio. A motivação sísmica reside no fato de que essas rochas intrusivas possuem grandes contrastes de impedância com a rocha encaixante, o que resulta em múltiplas, externas e internas, com amplitudes semelhantes as das primárias. O sinal sísmico das múltiplas podem predominar sobre o sinal das reflexões primárias oriundas de interfaces mais profundas, o que pode dificultar o processamento, a interpretação e o imageamento da seção sísmica temporal. Neste trabalho, estudamos a atenuação de múltiplas em seções sintéticas fonte-comum (FC) através da comparação de dois métodos. O primeiro método resulta da combinação das técnicas Wiener-Hopf-Levinson de predição (WHLP) e o de empilhamento superfície-de-reflexão-comum (CRS), e denominando WHLP-CRS, onde o operador é desenhado exclusivamente no domínio do tempo-espaço. O segundo método utilizado é o filtro de velocidade (ω-k) aplicado após o empilhamento superfície-de-reflexão (CRS), onde o operador é desenhado exclusivamente no domínio bidimensional de freqüência temporal-espacial. A identificação das múltiplas é feita na seção de afastamento-nulo (AN) simulada com o empilhamento CRS, e utiliza o critério da periodicidade entre primária e suas múltiplas. Os atributos da frente de onda, obtidos através do empilhamento CRS, são utilizados na definição de janelas móveis no domínio tempo-espaço, que são usadas para calcular o operador WHLP-CRS. O cálculo do filtroω-k é realizado no domínio da freqüência temporal-espacial, onde os eventos são selecionados para corte ou passagem. O filtro (ω-k) é classificado como filtro de corte, com alteração de amplitude, mas não de fase, e limites práticos são impostos pela amostragem tempo-espaço. Em termos práticos, concluímos que, para o caso de múltiplas, os eventos separados no domínio x-t não necessariamente se separam no domínio ω-k, o que dificulta o desenho de um operador ω-k semelhante em performance ao operador x-t.
Resumo:
As redes neurais artificiais têm provado serem uma poderosa técnica na resolução de uma grande variedade de problemas de otimização. Nesta dissertação é desenvolvida uma nova rede neural, tipo recorrente, sem realimentação (self-feedback loops) e sem neurônios ocultos, para o processamento do sinal sísmico, para fornecer a posição temporal, a polaridade e as amplitudes estimadas dos refletores sísmicos, representadas pelos seus coeficientes de reflexão. A principal característica dessa nova rede neural consiste no tipo de função de ativação utilizada, a qual permite três possíveis estados para o neurônio. Busca-se estimar a posição dos refletores sísmicos e reproduzir as verdadeiras polaridades desses refletores. A idéia básica desse novo tipo de rede, aqui denominada rede neural discreta (RND), é relacionar uma função objeto, que descreve o problema geofísico, com a função de Liapunov, que descreve a dinâmica da rede neural. Deste modo, a dinâmica da rede leva a uma minimização local da sua função de Liapunov e consequentemente leva a uma minimização da função objeto. Assim, com uma codificação conveniente do sinal de saída da rede tem-se uma solução do problema geofísico. A avaliação operacional da arquitetura desta rede neural artificial é realizada em dados sintéticos gerados através do modelo convolucional simples e da teoria do raio. A razão é para explicar o comportamento da rede com dados contaminados por ruído, e diante de pulsos fonte de fases mínima, máxima e misturada.
Resumo:
Este trabalho representa um estudo de dispersão da componente vertical da onda de superfície de Rayleigh com trajetórias na plataforma Sulamericana. Os registros utilizados são provenientes das estações localizadas no território Brasileiro; sendo a do Rio de Janeiro (RDJ), a de Brasília (BDF), a de Caicó (CAI) e a de Belém (BEB), pois estas são as únicas estações sismológicas no Brasil que têm sensores de período longo e que servem para o estudo de dispersão no intervalo de 4 a 50 segundos, aqui realizados. Os terremotos utilizados estão localizados ao longo da parte leste da cadeia Andina e dentro da plataforma Sulamericana com trajetórias tipicamente continental. Foram selecionados 34 eventos com a utilização dos seguintes critérios práticos: a localização, a magnitude mb e a profundidade, ocorridos durante o período de Janeiro de 1978 até Junho de 1987. O estudo de dispersão aqui abordado significa a determinação da velocidade de grupo e das amplitudes espectrais correspondentes aos harmônicos fundamental e primeiro superior. Normalmente os harmônicos de ordem segunda ou maior são raramente disponíveis na observação. Dois tipos de medidas foram feitas: (i) velocidade de grupo vs. período e (ii) amplitude vs. período. Os estudos de dispersão são fundamentais para determinação da estrutura da crosta e manto superior que estão diretamente relacionados com os fenômenos geológicos. Neste trabalho, regionalização é definida como a identificação das diferentes formas de curvas de dispersão, que estão relacionadas com as trajetórias epicentro-estação ao longo da plataforma Sulamericana e que venham ter uma correlação geológica como está descrito no item 4.3 deste trabalho. A distribuição dos epicentros se faz desde o extremo sul da Argentina até o extremo norte da Venezuela, objetivando iniciar com este trabalho uma sistemática voltada aos estudos de regionalização da plataforma Sulamericana na nossa instituição. Neste trabalho foram observados três tipos distintos de curvas em 27 trajetórias e agrupadas por famílias 1,2 e 3 respectivamente, onde procurou-se correlacionar suas diferentes formas com a geologia regional da plataforma Sulamericana. A obtenção da curva de dispersão foi feita através da técnica do filtro múltiplo (Dziewonski et al, 1969). Este filtro tem a propriedade de separar os harmônicos através das suas velocidades de grupo para cada frequência selecionada, e também de recuperar as amplitudes características dos harmônicos (Herrmann, 1973). O desenvolvimento teórico do filtro bem como suas limitações e forma de uso são tratados por Dziewonski et al (1972). Como parte do trabalho há a implantação, adaptações e o desenvolvimento de parte do fluxograma do filtro múltiplo, bem como a estruturação da digitalização dos dados para o processamento e interpretação não-automática dos resultados do processamento.
Resumo:
A medição de parâmetros físicos de reservatórios se constitui de grande importância para a detecção de hidrocarbonetos. A obtenção destes parâmetros é realizado através de análise de amplitude com a determinação dos coeficientes de reflexão. Para isto, faz-se necessário a aplicação de técnicas especiais de processamento capazes de corrigir efeitos de divergência esférica. Um problema pode ser estabelecido através da seguinte questão: Qual o efeito relativamente mais importante como responsável pela atenuação de amplitudes, o espalhamento geométrico ou a perda por transmissividade? A justificativa desta pergunta reside em que a correção dinâmica teórica aplicada a dados reais visa exclusivamente o espalhamento geométrico. No entanto, a análise física do problema por diferentes direções põe a resposta em condições de dúvida, o que é interessante e contraditório com a prática. Uma resposta embasada mais fisicamente pode dar melhor subsídio a outros trabalhos em andamento. O presente trabalho visa o cálculo da divergência esférica segundo a teoria Newman-Gutenberg e corrigir sismogramas sintéticos calculados pelo método da refletividade. O modelo-teste é crostal para que se possa ter eventos de refração crítica além das reflexões e para, com isto, melhor orientar quanto à janela de aplicação da correção de divergência esférica o que resulta em obter o então denominado “verdadeiras amplitudes”. O meio simulado é formado por camadas plano-horizontais, homogêneas e isotrópicas. O método da refletividade é uma forma de solução da equação de onda para o referido modelo, o que torna possível um entendimento do problema em estudo. Para se chegar aos resultados obtidos foram calculados sismogramas sintéticos através do programa P-SV-SH desenvolvido por Sandmeier (1998), e curvas do espalhamento geométrico em função do tempo para o modelo estudado como descrito por Newman (1973). Demonstramos como uma das conclusões que a partir dos dados do modelo (velocidades, espessuras, densidades e profundidades) uma equação para a correção de espalhamento geométrico visando às “verdadeiras amplitudes” não é de fácil obtenção. O objetivo maior então deveria ser obter um painel da função de divergência esférica para corrigir as verdadeiras amplitudes.
Resumo:
A malária é um sério problema de saúde pública mundial, acarretando perdas socioeconômicas e contribuindo para o subdesenvolvimento dos países afetados. Neste contexto, faz-se necessário estudar a relação entre as propriedades eletrônicas e a capacidade antioxidante de derivados quinolínicos na atividade antimalárica, o que servirá de subsídio para propor protótipos eficazes na terapêutica da doença. Nesta dissertação, foram utilizadas técnicas de modelagem molecular, no estudo da relação estrutura e atividade antioxidante correlacionada com a atividade antimalárica, no processo de seleção de grupamentos e parâmetros eletrônicos e conformacionais que permitam aperfeiçoar a atividade farmacológica e reduzir a toxicidade dos derivados. A análise dos valores de HOMO e PI indicou que o tautômero imino-quinolina é, provavelmente, melhor antioxidante que o tautômero amino-quinolina. Também se observou que o equilíbrio dos tautômeros é mais deslocalizado para a estrutura amino-quinolina na fase gasosa, e em água e clorofórmio no método PCM, apresentando valores de barreiras de energia da faixa de 10,78 Kcal/mol, 21,65 Kcal/mol e 22,04 Kcal/mol, respectivamente. Assim pôdese observar que nos derivados análogos de quinolina, os grupos elétrons-doadores mostraram destaque na redução do potencial de ionização, como os grupos amina na posição 8 substituído por um grupo alquilamina. Nos derivados da associação de 4- e 8-amino-quinolina notou-se que a presença de um segundo nitrogênio no grupo quinolina diminui seu potencial antioxidante, com exceção da posição 5, representando o grupo de maior destaque na redução do potencial de ionização e conseqüente provável elevada atividade antioxidante.