955 resultados para Superfície de impasse
Resumo:
Pós-graduação em Medicina Veterinária - FCAV
Resumo:
Neste trabalho estudaram-se as características de superfície de CAG comercial in natura (CA-1) e tratado por (HNO3) (CA-2) e suas aplicações na adsorção de benzeno e tolueno. Caracterização dos adsorventes: área superficial específica - SBET e distribuição de poros (adsorção de N2/77 K), pH (norma ASTM D3838-05), grupos funcionais de superfície (FTIR e método de Boehm). Foram realizados ensaios de adsorção em sistema batelada (25°C/140 rpm/25 minutos) e sistema de coluna em leito fixo, onde as amostras foram quantificadas por cromatografia gasosa com extração por headspace método EPA 0010. A SBET e o volume médio dos poros do adsorvente CA-2 diminuíram com relação aos valores de CA1, bem como o valor do pH. Houve aumento de grupos funcionais ácidos determinados pelo método de Boehm do adsorvente CA-2 em relação ao CA-1, o que foi confirmado pela determinação de FTIR, na qual a intensidade das bandas de absorção foram mais intensas para CA-2. Obtiveram-se percentuais de remoção de benzeno de 92,6 e 93,6 (%) a partir de CA-1 e CA-2, respectivamente, e para tolueno de 93,2 e 94,3 (%) para CA-1 e CA-2. Os dados dos testes cinéticos foram ajustados satisfatoriamente pelo modelo matemático de pseudo-segunda ordem, baseado nos testes estatísticos aplicados, havendo diferenças estatísticas significativas entre o adsorvente tratado (CA-2) e o in natura (CA-1). Realizaram-se ensaios de equilíbrio de adsorção e correlacionaram-se os resultados pela Isoterma de Langmuir, com resposta satisfatória para o referido modelo. A partir do sistema de adsorção em coluna de leito fixo e considerando o maior valor de vazão volumétrica (Q=100 mL/min) utilizado no referido sistema obtiveram-se os resultados mais significativos de adsorção de benzeno e tolueno empregando (CA-2) como adsorvente.
Resumo:
Neste estudo avaliamos o potencial antigênico da proteína recombinante His6-P119 contendo a região C-terminal da Proteína 1 da Superfície de Merozoítos de Plasmodium vivax. Analisamos a aquisição e os níveis de anticorpos IgG, e comparamos duas áreas com transmissão de malária, localizadas nos municípios de Trairão e Itaituba, Pará. Foram analisadas 391 amostras, sendo 208 amostras coletadas em Três Boeiras (TB) e 183 em São Luiz do Tapajós (SLT). No momento da coleta, foi realizado o exame da gota espessa e foram obtidos dados como idade, número de episódios prévios de malária e tempo decorrido desde o último episódio. As amostras foram analisadas por (ELISA) e os aspectos imunoepidemiológicos foram descritos. A comparação entre as duas áreas mostrou que tanto a freqüência de soros que reconheceram a His6-MSP119 como a concentração dos anticorpos IgG foi maior na população de TB, quando comparado com SLT. A freqüência de soros positivos foi 64,42% e 20,22% e a média dos índices de reatividade foi 6,11 ± 4,58 e 2,56 ± 1,96, respectivamente. A idade não influenciou a aquisição de anticorpos IgG na população mais expostas (TB), mas na população menos exposta (SLT) a percentagem de positivos aumentou entre os adultos. Nos grupos de indivíduos que relataram nunca terem tido malária, a freqüência de positivos foi semelhante nas duas localidades. No grupo que relatou ter tido malária, a percentagem de positivos foi maior em TB. Nesses dois grupos, a concentração de anticorpos IgG foi maior na população de TB. Nas duas áreas, o número de episódio influenciou a resposta de anticorpos específicos, sendo que em TB contribuiu para o aumento da percentagem de positivos e da concentração de anticorpos, mas em SLT influenciou apenas na percentagem de positivos. Entretanto, nas duas áreas, não foi possível associar a resposta de anticorpo com proteção, uma vez que os mais expostos estavam tendo malária recentemente. As áreas de estudo apresentaram perfil diferente quanto à intensidade da transmissão de malária e a aquisição natural de anticorpos. Os aspectos imunoepidemiológicos mostraram que a exposição contínua ao parasito contribuiu para a aquisição de anticorpos IgG específicos contra antígeno da fase sangüínea de P. vivax. No entanto, esta resposta não foi efetiva para conferir proteção.
Resumo:
Neste estudo avaliou-se a rugosidade superficial em corpos-de-prova confeccionados com três tipos de resinas indicadas para confecção de restaurações indiretas, SR Adoro (Ivoclar-Vivadent) (GA), Signum Matrix (Heraeus-Kulzer) (GSM) e Signum+ (Heraeus-Kulzer) (GSP), assim como a resistência à flexão após serem utilizados diferentes tratamentos de superfície com o propósito de se verificar a influência dos mesmos na resistência mecânica dos materiais. Obteve-se 120 corpos-de-prova de cada tipo de resina de acordo com as recomendações dos fabricantes, os quais foram divididos e tratados com: A- Jateamento com óxido de alumínio a 50μm por 6 s a 60-80 libras (Grupo Controle); B- Jateamento e silanização com Monobond (Ivoclar Vivadent) e Excite DSC (Ivoclar Vivadent); C- Jateamento e condicionamento com ácido ortofosfórico a 37% por 3 minutos e D- Jateamento, condicionamento e silanização. Após a execução do tratamento superficial, analisou-se os corpos-de-prova em rugosímetro Mytutoyo no parâmetro Ra e teste de flexão por compressão em três pontos em máquina de ensaio universal Kratos. Submeteu-se os dados observados à análise estatística, tendo como nível de significância 5% para a construção dos resultados. Os resultados mostraram um comportamento bastante coerente com o que é visto na literatura com relação à composição das resinas estudadas, os quais apresentaram inicialmente lisura de superfície similar (p>0.05). Com a aplicação dos tratamentos de superfície, houve um comportamento bastante diversificado entre os materiais. Os grupos que receberam a aplicação de silano e adesivo apresentaram superfícies mais lisas e maiores valores de resistência flexural em todas as resinas. No entanto não houve correlação dos valores de rugosidade com a resistência flexural, a qual demonstrou ser maior nas resinas SR Adoro e Signum Matrix, sendo que nesta última, apenas após a silanização é que se observou melhoria deste aspecto flexural.
Resumo:
Com o objetivo de avaliar a superfície dentinária apical, após a remoção de diferentes pastas de hidróxido de cálcio (Ca(OH)2), foram selecionados 68 dentes unirradiculares, preparados por um único operador, valendo-se da técnica regressiva. Os canais foram irrigados com 5ml de hipoclorito de sódio (NaOCl) a 1%, seguido de irrigação final com 10 ml de ácido etilenodiaminotetracético associado ao tergentol (EDTA-T) a 17%. As amostras foram divididas, aleatoriamente, em 4 grupos (n=15), de acordo com o tipo de associação de Ca(OH)2: associado à solução de clorexidina 0.2% (Grupo 1); ao propilenoglicol (Grupo 2); à ciprofloxacina, metronidazol e água destilada (Grupo 3); à ciprofloxacina, metronidazol e propilenoglicol (Grupo 4). Os dentes controle negativos (n=4) não foram preenchidos com Ca(OH)2, e nos controle positivo, (n=4) não foi feita a remoção do Ca(OH)2. As amostras foram armazenadas à 37ºC, em 100% de umidade relativa, por 21 dias. A remoção da medicação foi realizada com: irrigação com 5ml de NaOCl 1%; limagem circunferencial com instrumento memória; 5ml de NaOCl 1%; patência com lima K #10; ultra-som com lima K #15; e 10ml de EDTA-T a 17%. Os espécimes foram analisados em microscópio eletrônico de varredura e, após a aplicação do teste de Kruskal-Wallis (α = 5%), observou-se que não houve diferença entre os grupos em relação à remoção do Ca(OH)2 (p = 0.0951). O teste Qui-quadrado (α = 5%) indicou a predominância de Ca(OH)2 obstruindo os túbulos dentinários, independente do veículo utilizado. Após análise química pontual (espectrometria por dispersão de raios-x EDS) e, aplicação do teste de análise das variâncias e Tukey (α = 5%), pôde-se observar que houve diferença na quantidade de íons cálcio (Ca) remanescente entre os grupos 1 e 4 (p<0.01). Com base na metodologia empregada, concluiu-se que, independente do tipo de veículo utilizado, a superfície dentinária apical permaneceu igualmente coberta por Ca (OH)2.
Resumo:
Neste trabalho, utilizamos o método de primeiros princípios, RS-LMTO-ASA (“Real Space - Linear Muffin-Tin Orbital - Atomic Sphere Approximation”), baseado na Teoria do Funcional da Densidade (DFT) e implementado para o cálculo de estruturas magnéticas não-colineares, para investigar as propriedades magnéticas de nanoestruturas de metais de transição 3d (Cr, Mn, Fe, Co e Ni) adsorvidas na superfície de Pt(111). Diferentes geometrias como adátomos, dímeros, trímeros, fios lineares e zig-zag foram consideradas e, o tamanho dos aglomerados foi variado de 2 a 7 átomos. Mostramos que os aglomerados de Fe, Co e Ni sobre a superfície de Pt(111), para todas as geometrias simuladas, apresentam um ordenamento ferromagnético. Devido à redução do número de coordenação presente na superfície, os momentos de spin e orbital nos sítios de Fe, Co e Ni, para as diferentes geometrias, mostram-se elevados comparados com os respectivos valores dos momentos destes metais como bulk. Para os glomerados de Cr e Mn mostramos que a interação de troca antiferromagnética entre primeiros vizinhos leva a um ordenamento antiferromagnético colinear no caso de geometrias lineares. No entanto, se o antiferromagnetismo é frustrado por restrição geométrica imposta aos aglomerados pela superfície triangular do substrato, obtém-se um comportamento magnético não-colinear para aglomerados de Cr e Mn sobre a Pt(111). Nossos resultados estão em boa concordância com os resultados experimentais da literatura e com os resultados teóricos obtidos por outros métodos, quando existentes.
Resumo:
O método de empilhamento sísmico CRS simula seções sísmicas ZO a partir de dados de cobertura múltipla, independente do macro-modelo de velocidades. Para meios 2-D, a função tempo de trânsito de empilhamento depende de três parâmetros, a saber: do ângulo de emergência do raio de reflexão normal (em relação à normal da superfície) e das curvaturas das frentes de onda relacionadas às ondas hipotéticas, denominadas NIP e Normal. O empilhamento CRS consiste na soma das amplitudes dos traços sísmicos em dados de múltipla cobertura, ao longo da superfície definida pela função tempo de trânsito do empilhamento CRS, que melhor se ajusta aos dados. O resultado do empilhamento CRS é assinalado a pontos de uma malha pré-definida na seção ZO. Como resultado tem-se a simulação de uma seção sísmica ZO. Isto significa que para cada ponto da seção ZO deve-se estimar o trio de parâmetros ótimos que produz a máxima coerência entre os eventos de reflexão sísmica. Nesta Tese apresenta-se fórmulas para o método CRS 2-D e para a velocidade NMO, que consideram a topografia da superfície de medição. O algoritmo é baseado na estratégia de otimização dos parâmetros de fórmula CRS através de um processo em três etapas: 1) Busca dos parâmetros, o ângulo de emergência e a curvatura da onda NIP, aplicando uma otimização global, 2) busca de um parâmetro, a curvatura da onda N, aplicando uma otimização global, e 3) busca de três parâmetros aplicando uma otimização local para refinar os parâmetros estimados nas etapas anteriores. Na primeira e segunda etapas é usado o algoritmo Simulated Annealing (SA) e na terceira etapa é usado o algoritmo Variable Metric (VM). Para o caso de uma superfície de medição com variações topográficas suaves, foi considerada a curvatura desta superfície no algoritmo do método de empilhamento CRS 2-D, com aplicação a dados sintéticos. O resultado foi uma seção ZO simulada, de alta qualidade ao ser comparada com a seção ZO obtida por modelamento direto, com uma alta razão sinal-ruído, além da estimativa do trio de parâmetros da função tempo de trânsito. Foi realizada uma nálise de sensibilidade para a nova função de tempo de trânsito CRS em relação à curvatura da superfície de medição. Os resultados demonstraram que a função tempo de trânsito CRS é mais sensível nos pontos-médios afastados do ponto central e para grandes afastamentos. As expressões da velocidade NMO apresentadas foram aplicadas para estimar as velocidades e as profundidades dos refletores para um modelo 2-D com topografia suave. Para a inversão destas velocidades e profundidades dos refletores, foi considerado o algoritmo de inversão tipo Dix. A velocidade NMO para uma superfície de medição curva, permite estimar muito melhor estas velocidades e profundidades dos refletores, que as velocidades NMO referidas as superfícies planas. Também apresenta-se uma abordagem do empilhamento CRS no caso 3-D. neste caso a função tempo de trânsito depende de oito parâmetros. São abordadas cinco estratégias de busca destes parâmetros. A combinação de duas destas estratégias (estratégias das três aproximações dos tempos de trânsito e a estratégia das configurações e curvaturas arbitrárias) foi aplicada exitosamente no empilhamento CRS 3-D de dados sintéticos e reais.
Resumo:
O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.
Resumo:
Neste trabalho compilamos informações sobre um grande número de medidas de velocidade de grupo para ondas Rayleigh do modo fundamental, com período até 100 segundos. Tais dados consistiram de informações retiradas da literatura geofísica e cobriram toda a Terra. Parte dos dados foi organizada em trabalhos anteriores e uma segunda parte foi apresentada aqui de forma inédita. Para a América do Sul, selecionamos os principais conjuntos de dados de tais ondas e elaboramos diversos perfis onde a distribuição de velocidade de ondas cisalhantes foi obtida a partir da inversão das curvas de dispersão de velocidade de grupo. Tais perfis serviram para termos uma ideia inicial da estrutura interna da Terra em nosso continente. Com o conjunto global de dados de velocidade de grupo foi possível obtermos os mapas de distribuição lateral de valores de velocidade para cada período referencial entre 20 e 100 segundos. Tais mapas foram produzidos da mesma forma que os mapas de velocidade de fase de ROSA (1986), onde a amostragem for para realizada para blocas medindo 10x10 graus, englobando toda a Terra, em projeção mercator. O valor de velocidade de grupo em cada bloco, para cada período, foi obtido a partir da inversão estocástica dos dados de anomalia de velocidade em relação aos modelos regionalizados de JORDAN (1981) com os valores de velocidade de grupo de ROSA et al. (1992). Os mapas de velocidade de grupo obtidos aqui foram então empregados, na América do Sul, com os valores de velocidade de fase dos mapas obtidos por ROSA (1986). Assim, foi possível determinarmos, em profundidade, os mapas de variação de velocidade de onda cisalhante e os mapas de distribuição de valores de densidade. Com isto, pudemos construir o primeiro mapa de profundidade do Moho (todo do Manto Superior) da América do Sul.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Este trabalho teve por objetivo estabelecer procedimento tecnológico para produção de fruta estruturada a partir de "mix" de polpa de cajá e mamão, procurando unir as propriedades sensoriais de cada uma das frutas e potencializar as características funcionais do produto final. Avaliou-se o efeito da combinação de pectina, gelatina e alginato de sódio, via metodologia de superfície de resposta, nas características do gel de fruta. As polpas de mamão e cajá e os estruturados obtidos foram caracterizados com relação aos compostos funcionais, avaliando-se o teor de taninos e carotenóides totais, além das análises de composição centesimal, pH, acidez titulável, sólidos solúveis, açúcares, atividade de água, carboidratos e valor energético total. Os resultados obtidos através do planejamento experimental indicam que para o estruturado misto de cajá e mamão, somente o aumento da concentração de gelatina afeta a firmeza do produto final. Os estruturados de frutas desenvolvidos apresentaram boa aceitação sensorial para todos os atributos avaliados. Com relação à intenção de compra, 70% dos provadores responderam que provavelmente ou certamente, comprariam o estruturado misto de cajá e mamão se o encontrassem à venda.
Resumo:
O presente trabalho teve como objetivos a análise e atenuação de múltiplas de superfície livre, o processamento e o imageamento de dados sísmicos marinhos visando obter imagens migradas de utilidade à interpretação geológica voltada à exploração de petróleo. Foi dada uma atenção sistemática ao estudo de múltiplas de superfície livre do ponto de vista do filtro de predição baseado na teoria da comunicação com o objetivo de melhor aplicar o filtro WH de deconvolução preditiva, na etapa de processamento, posterior à correção NMO, embora outros métodos possam ser considerados mais competitivos. A identificação e a atenuação de reflexões múltiplas em dados sísmicos reais continua como um grande desafio no processamento de dados sísmicos, uma vez que elas são consideradas como ruído. No entanto, sendo este ruído classificado como coerente, várias técnicas foram desenvolvidas objetivando sua atenuação para evitar erros em cascata nas etapas posteriores como processamento, marcação de eventos, inversão tomográfica, imageamento, e finalmente na interpretação geológica das imagens obtidas. Outro aspecto do trabalho foi estabelecer um fluxograma de processamento-imageamento sendo a atenuação de múltiplas de superfície livre uma etapa central. Foram obtidas seções migradas em tempo e em profundidade onde se permite a interpretação que se deseja. O desenvolvimento deste trabalho foi realizado com os pacotes CWP/SU e MatLab.
Resumo:
Este artigo mostra como três modelos acoplados do Intergovernmental on Panel Climate Change - (IPCC-AR4), o FGOALS1.0G - LASG do Institute of Atmospheric Physics of China, o GISSER da National Aeronautics Space Admnistration (NASA) e o GFDL_CM2 da National Oceanic and Atmospheric Administration (NOAA), simularam a variabilidade do gradiente meridional de Temperatura da Superfície do Mar (TSM), entre os meses de fevereiro a maio, no Atlântico Tropical (1901-1999). A precipitação durante a estação chuvosa (fevereiro a maio) no setor norte do Nordeste do Brasil (NEB) foi também analisada pelos três modelos e comparada com as observações. Os modelos GISSER e FGOALS1.0G mostraram melhor desempenho na simulação do sinal do gradiente meridional de TSM no Atlântico Tropical para o período de 1901 a 1999. Destaca-se que os modelos apresentaram um melhor desempenho na simulação da tendência decadal, conseguindo explicar entre 50% a 80% da variabilidade do gradiente, com a TSM do setor sul sendo melhor simulada.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)