16 resultados para Superfície trativa
em Universidade Federal do Pará
Resumo:
O empilhamento por superfície de reflexão comum (ou empilhamento SRC), conhecido como empilhamento CRS, do inglês Commom reflection surface, constitui-se em um novo método para o processamento sísmico na simulação de seções afastamento nulo (AN) e afastamento comum (AC). Este método é baseado em uma aproximação paraxial hiperbólica de segunda ordem dos tempos de trânsito de reflexão na vizinhança de um raio central. Para a simulação de seção AN, o raio central é um raio normal, enquanto que para a simulação de uma seção AC o raio central é um raio de afastamento finito. Em adição à seção AN, o método de empilhamento SRC também fornece estimativas dos atributos cinemáticos do campo de onda, sendo aplicados, por exemplo, na determinação (por um processo de inversão) da velocidade intervalar, no cálculo do espalhamento geométrico, na estimativa da zona de Fresnel, e também na simulação de eventos de tempos de difrações, este último tendo uma grande importância para a migração pré-empilhamento. Neste trabalho é proposta uma nova estratégia para fazer uma migração em profundidade pré-empilhamento, que usa os atributos cinemáticos do campo de onda derivados do empilhamento SRC, conhecido por método CRS-PSDM, do inglês CRS based pre-stack depth migration. O método CRS-PSDM usa os resultados obtidos do método SRC, isto é, as seções dos atributos cinemáticos do campo de onda, para construir uma superfície de tempos de trânsito de empilhamento, ao longo da qual as amplitudes do dado sísmico de múltipla cobertura são somadas, sendo o resultado da soma atribuído a um dado ponto em profundidade, na zona alvo de migração que é definida por uma malha regular. Similarmente ao método convencional de migração tipo Kirchhoff (K-PSDM), o método CRS-PSDM precisa de um modelo de velocidade de migração. Contrário ao método K-PSDM, o método CRS-PSDM necessita apenas computar os tempos de trânsito afastamento nulo, ao seja, ao longo de um único raio ligando o ponto considerado em profundidade a uma dada posição de fonte e receptor coincidentes na superfície. O resultado final deste procedimento é uma imagem sísmica em profundidade dos refletores a partir do dado de múltipla cobertura.
Resumo:
A Facilitação Neuromuscular Proprioceptiva – FNP – é uma técnica que cada vez mais vem sendo utilizada no treinamento muscular de pessoas saudáveis e atletas. Pesquisas vêm mostrando que exercícios de resistência, dentre eles a FNP, são capazes de converter o tipo das fibras musculares treinadas. Esta pesquisa teve como objetivo verificar a eficiência da FNP no acréscimo de força muscular e verificar por métodos não invasivos se haveria indicativo de conversão de tipo de fibra muscular após o treinamento. Um grupo amostral de 22 jovens, universitárias do sexo feminino com idade entre 18 e 25 anos e fisicamente ativas, foi dividido em: grupo controle (GC n=10) e grupo experimental (GE n=12). Foram inicialmente mensurados: I - força da Contração Voluntária Máxima - CVM do músculo quadríceps por dinamometria analógica e root mean square - RMS e II - área de ativação muscular por eletromiografia de superfície (EMG) de todos os sujeitos. Após a primeira coleta de dados o GE realizou treinamento baseado na FNP no membro inferior dominante por 15 sessões em 5 semanas. Ao final, nova mensuração foi feita em todos. Quanto à força muscular, houve acréscimo em ambos os grupos, significativa no GC (p<0,01) e no GE (p<0,05); para RMS e tempo de CVM, houve aumento não significativo no GE, mas a interação Vxt aumentou significativamente para este grupo. Os resultados corroboram a literatura ao mostrar que músculos com predomínio de fibras resistentes (fibras I/ II A) possuem maior tempo de contração com mais ativação elétrica e de que a FNP é capaz fibras tipo II B para II A. Concluiu-se que para a amostra estudada o treinamento foi eficiente no acréscimo de força muscular e os dados EMG apresentados mostram fortes evidências da conversão das fibras do músculo treinado.
Resumo:
Neste trabalho estudaram-se as características de superfície de CAG comercial in natura (CA-1) e tratado por (HNO3) (CA-2) e suas aplicações na adsorção de benzeno e tolueno. Caracterização dos adsorventes: área superficial específica - SBET e distribuição de poros (adsorção de N2/77 K), pH (norma ASTM D3838-05), grupos funcionais de superfície (FTIR e método de Boehm). Foram realizados ensaios de adsorção em sistema batelada (25°C/140 rpm/25 minutos) e sistema de coluna em leito fixo, onde as amostras foram quantificadas por cromatografia gasosa com extração por headspace método EPA 0010. A SBET e o volume médio dos poros do adsorvente CA-2 diminuíram com relação aos valores de CA1, bem como o valor do pH. Houve aumento de grupos funcionais ácidos determinados pelo método de Boehm do adsorvente CA-2 em relação ao CA-1, o que foi confirmado pela determinação de FTIR, na qual a intensidade das bandas de absorção foram mais intensas para CA-2. Obtiveram-se percentuais de remoção de benzeno de 92,6 e 93,6 (%) a partir de CA-1 e CA-2, respectivamente, e para tolueno de 93,2 e 94,3 (%) para CA-1 e CA-2. Os dados dos testes cinéticos foram ajustados satisfatoriamente pelo modelo matemático de pseudo-segunda ordem, baseado nos testes estatísticos aplicados, havendo diferenças estatísticas significativas entre o adsorvente tratado (CA-2) e o in natura (CA-1). Realizaram-se ensaios de equilíbrio de adsorção e correlacionaram-se os resultados pela Isoterma de Langmuir, com resposta satisfatória para o referido modelo. A partir do sistema de adsorção em coluna de leito fixo e considerando o maior valor de vazão volumétrica (Q=100 mL/min) utilizado no referido sistema obtiveram-se os resultados mais significativos de adsorção de benzeno e tolueno empregando (CA-2) como adsorvente.
Resumo:
Neste estudo avaliamos o potencial antigênico da proteína recombinante His6-P119 contendo a região C-terminal da Proteína 1 da Superfície de Merozoítos de Plasmodium vivax. Analisamos a aquisição e os níveis de anticorpos IgG, e comparamos duas áreas com transmissão de malária, localizadas nos municípios de Trairão e Itaituba, Pará. Foram analisadas 391 amostras, sendo 208 amostras coletadas em Três Boeiras (TB) e 183 em São Luiz do Tapajós (SLT). No momento da coleta, foi realizado o exame da gota espessa e foram obtidos dados como idade, número de episódios prévios de malária e tempo decorrido desde o último episódio. As amostras foram analisadas por (ELISA) e os aspectos imunoepidemiológicos foram descritos. A comparação entre as duas áreas mostrou que tanto a freqüência de soros que reconheceram a His6-MSP119 como a concentração dos anticorpos IgG foi maior na população de TB, quando comparado com SLT. A freqüência de soros positivos foi 64,42% e 20,22% e a média dos índices de reatividade foi 6,11 ± 4,58 e 2,56 ± 1,96, respectivamente. A idade não influenciou a aquisição de anticorpos IgG na população mais expostas (TB), mas na população menos exposta (SLT) a percentagem de positivos aumentou entre os adultos. Nos grupos de indivíduos que relataram nunca terem tido malária, a freqüência de positivos foi semelhante nas duas localidades. No grupo que relatou ter tido malária, a percentagem de positivos foi maior em TB. Nesses dois grupos, a concentração de anticorpos IgG foi maior na população de TB. Nas duas áreas, o número de episódio influenciou a resposta de anticorpos específicos, sendo que em TB contribuiu para o aumento da percentagem de positivos e da concentração de anticorpos, mas em SLT influenciou apenas na percentagem de positivos. Entretanto, nas duas áreas, não foi possível associar a resposta de anticorpo com proteção, uma vez que os mais expostos estavam tendo malária recentemente. As áreas de estudo apresentaram perfil diferente quanto à intensidade da transmissão de malária e a aquisição natural de anticorpos. Os aspectos imunoepidemiológicos mostraram que a exposição contínua ao parasito contribuiu para a aquisição de anticorpos IgG específicos contra antígeno da fase sangüínea de P. vivax. No entanto, esta resposta não foi efetiva para conferir proteção.
Resumo:
Neste estudo avaliou-se a rugosidade superficial em corpos-de-prova confeccionados com três tipos de resinas indicadas para confecção de restaurações indiretas, SR Adoro (Ivoclar-Vivadent) (GA), Signum Matrix (Heraeus-Kulzer) (GSM) e Signum+ (Heraeus-Kulzer) (GSP), assim como a resistência à flexão após serem utilizados diferentes tratamentos de superfície com o propósito de se verificar a influência dos mesmos na resistência mecânica dos materiais. Obteve-se 120 corpos-de-prova de cada tipo de resina de acordo com as recomendações dos fabricantes, os quais foram divididos e tratados com: A- Jateamento com óxido de alumínio a 50μm por 6 s a 60-80 libras (Grupo Controle); B- Jateamento e silanização com Monobond (Ivoclar Vivadent) e Excite DSC (Ivoclar Vivadent); C- Jateamento e condicionamento com ácido ortofosfórico a 37% por 3 minutos e D- Jateamento, condicionamento e silanização. Após a execução do tratamento superficial, analisou-se os corpos-de-prova em rugosímetro Mytutoyo no parâmetro Ra e teste de flexão por compressão em três pontos em máquina de ensaio universal Kratos. Submeteu-se os dados observados à análise estatística, tendo como nível de significância 5% para a construção dos resultados. Os resultados mostraram um comportamento bastante coerente com o que é visto na literatura com relação à composição das resinas estudadas, os quais apresentaram inicialmente lisura de superfície similar (p>0.05). Com a aplicação dos tratamentos de superfície, houve um comportamento bastante diversificado entre os materiais. Os grupos que receberam a aplicação de silano e adesivo apresentaram superfícies mais lisas e maiores valores de resistência flexural em todas as resinas. No entanto não houve correlação dos valores de rugosidade com a resistência flexural, a qual demonstrou ser maior nas resinas SR Adoro e Signum Matrix, sendo que nesta última, apenas após a silanização é que se observou melhoria deste aspecto flexural.
Resumo:
Com o objetivo de avaliar a superfície dentinária apical, após a remoção de diferentes pastas de hidróxido de cálcio (Ca(OH)2), foram selecionados 68 dentes unirradiculares, preparados por um único operador, valendo-se da técnica regressiva. Os canais foram irrigados com 5ml de hipoclorito de sódio (NaOCl) a 1%, seguido de irrigação final com 10 ml de ácido etilenodiaminotetracético associado ao tergentol (EDTA-T) a 17%. As amostras foram divididas, aleatoriamente, em 4 grupos (n=15), de acordo com o tipo de associação de Ca(OH)2: associado à solução de clorexidina 0.2% (Grupo 1); ao propilenoglicol (Grupo 2); à ciprofloxacina, metronidazol e água destilada (Grupo 3); à ciprofloxacina, metronidazol e propilenoglicol (Grupo 4). Os dentes controle negativos (n=4) não foram preenchidos com Ca(OH)2, e nos controle positivo, (n=4) não foi feita a remoção do Ca(OH)2. As amostras foram armazenadas à 37ºC, em 100% de umidade relativa, por 21 dias. A remoção da medicação foi realizada com: irrigação com 5ml de NaOCl 1%; limagem circunferencial com instrumento memória; 5ml de NaOCl 1%; patência com lima K #10; ultra-som com lima K #15; e 10ml de EDTA-T a 17%. Os espécimes foram analisados em microscópio eletrônico de varredura e, após a aplicação do teste de Kruskal-Wallis (α = 5%), observou-se que não houve diferença entre os grupos em relação à remoção do Ca(OH)2 (p = 0.0951). O teste Qui-quadrado (α = 5%) indicou a predominância de Ca(OH)2 obstruindo os túbulos dentinários, independente do veículo utilizado. Após análise química pontual (espectrometria por dispersão de raios-x EDS) e, aplicação do teste de análise das variâncias e Tukey (α = 5%), pôde-se observar que houve diferença na quantidade de íons cálcio (Ca) remanescente entre os grupos 1 e 4 (p<0.01). Com base na metodologia empregada, concluiu-se que, independente do tipo de veículo utilizado, a superfície dentinária apical permaneceu igualmente coberta por Ca (OH)2.
Resumo:
Neste trabalho, utilizamos o método de primeiros princípios, RS-LMTO-ASA (“Real Space - Linear Muffin-Tin Orbital - Atomic Sphere Approximation”), baseado na Teoria do Funcional da Densidade (DFT) e implementado para o cálculo de estruturas magnéticas não-colineares, para investigar as propriedades magnéticas de nanoestruturas de metais de transição 3d (Cr, Mn, Fe, Co e Ni) adsorvidas na superfície de Pt(111). Diferentes geometrias como adátomos, dímeros, trímeros, fios lineares e zig-zag foram consideradas e, o tamanho dos aglomerados foi variado de 2 a 7 átomos. Mostramos que os aglomerados de Fe, Co e Ni sobre a superfície de Pt(111), para todas as geometrias simuladas, apresentam um ordenamento ferromagnético. Devido à redução do número de coordenação presente na superfície, os momentos de spin e orbital nos sítios de Fe, Co e Ni, para as diferentes geometrias, mostram-se elevados comparados com os respectivos valores dos momentos destes metais como bulk. Para os glomerados de Cr e Mn mostramos que a interação de troca antiferromagnética entre primeiros vizinhos leva a um ordenamento antiferromagnético colinear no caso de geometrias lineares. No entanto, se o antiferromagnetismo é frustrado por restrição geométrica imposta aos aglomerados pela superfície triangular do substrato, obtém-se um comportamento magnético não-colinear para aglomerados de Cr e Mn sobre a Pt(111). Nossos resultados estão em boa concordância com os resultados experimentais da literatura e com os resultados teóricos obtidos por outros métodos, quando existentes.
Resumo:
O método de empilhamento sísmico CRS simula seções sísmicas ZO a partir de dados de cobertura múltipla, independente do macro-modelo de velocidades. Para meios 2-D, a função tempo de trânsito de empilhamento depende de três parâmetros, a saber: do ângulo de emergência do raio de reflexão normal (em relação à normal da superfície) e das curvaturas das frentes de onda relacionadas às ondas hipotéticas, denominadas NIP e Normal. O empilhamento CRS consiste na soma das amplitudes dos traços sísmicos em dados de múltipla cobertura, ao longo da superfície definida pela função tempo de trânsito do empilhamento CRS, que melhor se ajusta aos dados. O resultado do empilhamento CRS é assinalado a pontos de uma malha pré-definida na seção ZO. Como resultado tem-se a simulação de uma seção sísmica ZO. Isto significa que para cada ponto da seção ZO deve-se estimar o trio de parâmetros ótimos que produz a máxima coerência entre os eventos de reflexão sísmica. Nesta Tese apresenta-se fórmulas para o método CRS 2-D e para a velocidade NMO, que consideram a topografia da superfície de medição. O algoritmo é baseado na estratégia de otimização dos parâmetros de fórmula CRS através de um processo em três etapas: 1) Busca dos parâmetros, o ângulo de emergência e a curvatura da onda NIP, aplicando uma otimização global, 2) busca de um parâmetro, a curvatura da onda N, aplicando uma otimização global, e 3) busca de três parâmetros aplicando uma otimização local para refinar os parâmetros estimados nas etapas anteriores. Na primeira e segunda etapas é usado o algoritmo Simulated Annealing (SA) e na terceira etapa é usado o algoritmo Variable Metric (VM). Para o caso de uma superfície de medição com variações topográficas suaves, foi considerada a curvatura desta superfície no algoritmo do método de empilhamento CRS 2-D, com aplicação a dados sintéticos. O resultado foi uma seção ZO simulada, de alta qualidade ao ser comparada com a seção ZO obtida por modelamento direto, com uma alta razão sinal-ruído, além da estimativa do trio de parâmetros da função tempo de trânsito. Foi realizada uma nálise de sensibilidade para a nova função de tempo de trânsito CRS em relação à curvatura da superfície de medição. Os resultados demonstraram que a função tempo de trânsito CRS é mais sensível nos pontos-médios afastados do ponto central e para grandes afastamentos. As expressões da velocidade NMO apresentadas foram aplicadas para estimar as velocidades e as profundidades dos refletores para um modelo 2-D com topografia suave. Para a inversão destas velocidades e profundidades dos refletores, foi considerado o algoritmo de inversão tipo Dix. A velocidade NMO para uma superfície de medição curva, permite estimar muito melhor estas velocidades e profundidades dos refletores, que as velocidades NMO referidas as superfícies planas. Também apresenta-se uma abordagem do empilhamento CRS no caso 3-D. neste caso a função tempo de trânsito depende de oito parâmetros. São abordadas cinco estratégias de busca destes parâmetros. A combinação de duas destas estratégias (estratégias das três aproximações dos tempos de trânsito e a estratégia das configurações e curvaturas arbitrárias) foi aplicada exitosamente no empilhamento CRS 3-D de dados sintéticos e reais.
Resumo:
O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.
Resumo:
Neste trabalho compilamos informações sobre um grande número de medidas de velocidade de grupo para ondas Rayleigh do modo fundamental, com período até 100 segundos. Tais dados consistiram de informações retiradas da literatura geofísica e cobriram toda a Terra. Parte dos dados foi organizada em trabalhos anteriores e uma segunda parte foi apresentada aqui de forma inédita. Para a América do Sul, selecionamos os principais conjuntos de dados de tais ondas e elaboramos diversos perfis onde a distribuição de velocidade de ondas cisalhantes foi obtida a partir da inversão das curvas de dispersão de velocidade de grupo. Tais perfis serviram para termos uma ideia inicial da estrutura interna da Terra em nosso continente. Com o conjunto global de dados de velocidade de grupo foi possível obtermos os mapas de distribuição lateral de valores de velocidade para cada período referencial entre 20 e 100 segundos. Tais mapas foram produzidos da mesma forma que os mapas de velocidade de fase de ROSA (1986), onde a amostragem for para realizada para blocas medindo 10x10 graus, englobando toda a Terra, em projeção mercator. O valor de velocidade de grupo em cada bloco, para cada período, foi obtido a partir da inversão estocástica dos dados de anomalia de velocidade em relação aos modelos regionalizados de JORDAN (1981) com os valores de velocidade de grupo de ROSA et al. (1992). Os mapas de velocidade de grupo obtidos aqui foram então empregados, na América do Sul, com os valores de velocidade de fase dos mapas obtidos por ROSA (1986). Assim, foi possível determinarmos, em profundidade, os mapas de variação de velocidade de onda cisalhante e os mapas de distribuição de valores de densidade. Com isto, pudemos construir o primeiro mapa de profundidade do Moho (todo do Manto Superior) da América do Sul.
Resumo:
Este trabalho teve por objetivo estabelecer procedimento tecnológico para produção de fruta estruturada a partir de "mix" de polpa de cajá e mamão, procurando unir as propriedades sensoriais de cada uma das frutas e potencializar as características funcionais do produto final. Avaliou-se o efeito da combinação de pectina, gelatina e alginato de sódio, via metodologia de superfície de resposta, nas características do gel de fruta. As polpas de mamão e cajá e os estruturados obtidos foram caracterizados com relação aos compostos funcionais, avaliando-se o teor de taninos e carotenóides totais, além das análises de composição centesimal, pH, acidez titulável, sólidos solúveis, açúcares, atividade de água, carboidratos e valor energético total. Os resultados obtidos através do planejamento experimental indicam que para o estruturado misto de cajá e mamão, somente o aumento da concentração de gelatina afeta a firmeza do produto final. Os estruturados de frutas desenvolvidos apresentaram boa aceitação sensorial para todos os atributos avaliados. Com relação à intenção de compra, 70% dos provadores responderam que provavelmente ou certamente, comprariam o estruturado misto de cajá e mamão se o encontrassem à venda.
Resumo:
O presente trabalho teve como objetivos a análise e atenuação de múltiplas de superfície livre, o processamento e o imageamento de dados sísmicos marinhos visando obter imagens migradas de utilidade à interpretação geológica voltada à exploração de petróleo. Foi dada uma atenção sistemática ao estudo de múltiplas de superfície livre do ponto de vista do filtro de predição baseado na teoria da comunicação com o objetivo de melhor aplicar o filtro WH de deconvolução preditiva, na etapa de processamento, posterior à correção NMO, embora outros métodos possam ser considerados mais competitivos. A identificação e a atenuação de reflexões múltiplas em dados sísmicos reais continua como um grande desafio no processamento de dados sísmicos, uma vez que elas são consideradas como ruído. No entanto, sendo este ruído classificado como coerente, várias técnicas foram desenvolvidas objetivando sua atenuação para evitar erros em cascata nas etapas posteriores como processamento, marcação de eventos, inversão tomográfica, imageamento, e finalmente na interpretação geológica das imagens obtidas. Outro aspecto do trabalho foi estabelecer um fluxograma de processamento-imageamento sendo a atenuação de múltiplas de superfície livre uma etapa central. Foram obtidas seções migradas em tempo e em profundidade onde se permite a interpretação que se deseja. O desenvolvimento deste trabalho foi realizado com os pacotes CWP/SU e MatLab.
Resumo:
Este artigo mostra como três modelos acoplados do Intergovernmental on Panel Climate Change - (IPCC-AR4), o FGOALS1.0G - LASG do Institute of Atmospheric Physics of China, o GISSER da National Aeronautics Space Admnistration (NASA) e o GFDL_CM2 da National Oceanic and Atmospheric Administration (NOAA), simularam a variabilidade do gradiente meridional de Temperatura da Superfície do Mar (TSM), entre os meses de fevereiro a maio, no Atlântico Tropical (1901-1999). A precipitação durante a estação chuvosa (fevereiro a maio) no setor norte do Nordeste do Brasil (NEB) foi também analisada pelos três modelos e comparada com as observações. Os modelos GISSER e FGOALS1.0G mostraram melhor desempenho na simulação do sinal do gradiente meridional de TSM no Atlântico Tropical para o período de 1901 a 1999. Destaca-se que os modelos apresentaram um melhor desempenho na simulação da tendência decadal, conseguindo explicar entre 50% a 80% da variabilidade do gradiente, com a TSM do setor sul sendo melhor simulada.
Resumo:
A desidratação osmótica de filés de mapará tem sido utilizada como pré-tratamento antes da secagem e refrigeração de alimentos como um meio de reduzir a umidade dos produtos. O objetivo do trabalho foi otimizar a transferência de massa ocorrida durante a desidratação osmótica de mapará através da metodologia de superfície de resposta. A desidratação osmótica foi realizada de acordo com um planejamento fatorial completo 23, com oito pontos fatoriais, três centrais e seis axiais, totalizando 17 ensaios, em que o valor das variáveis dependentes, a perda de peso (PP), a perda de água (PA), o ganho de sólidos (GS), GS/PA e ácido tiobarbitúrico (TBA), são funções das variáveis independentes, temperatura, concentração de NaCl e tempo de imersão. A análise estatística aplicada aos dados experimentais foi realizada através do erro puro e pelo SS residual. Aplicando a metodologia de superfície de resposta, a condição ótima de convergência de menor perda de peso, maior perda de água e menor ganho de sal correspondeu a uma concentração de cloreto de sódio de 22%, temperatura de 46 °C e tempo de 7 horas.
Resumo:
O objetivo desta dissertação foi obter informações referentes ao uso e ocupação do solo na região de Santarém, em diferentes anos das últimas décadas, para melhor representar os efeitos causados pelas modificações das propriedades da superfície sobre as condições atmosféricas simuladas por modelos numéricos de tempo e clima. As superfícies continentais caracterizam-se por causar efeitos substanciais sobre a atmosfera e, consequentemente, influir na qualidade das previsões de tempo e de clima. Por outro lado, o desmatamento contribui com as mudanças climáticas, por eliminar grandes quantidades de gases de efeito estufa para a atmosfera. Estas atividades também causam efeitos na saúde publica, na agricultura, nos recursos florestais, nos recursos faunísticos e nos recursos hídricos. Além disso, a substituição da superfície natural por pastagem ou agricultura altera as propriedades térmicas e radiativas da superfície, gerando modificações nas condições atmosféricas locais, regionais e globais. Neste trabalho foram analisados períodos representativos de possíveis mudanças climáticas na região, identificados a partir do tratamento e analise estatística de dados climatológicos de estações meteorológicas de superfície, bem como a evolução temporal e quantitativa do desmatamento na região de estudo com os dados do Projeto PRODES Monitoramento da Floresta Amazônica Brasileira por Satélite). Para avaliar os efeitos atmosféricos das mudanças no uso e ocupação do solo utilizou-se como base o mapa de vegetação do IBGE, e a inclusão da classe “desmatamento” ao mesmo em diferentes períodos analisados (anos de 1997e 2009) trabalhadas no software Arc. Gis. 9.2. Foram criados arquivos de dados de tipos de superfície compatíveis com a leitura do modelo BRAMS, que foi então utilizado para simular os diferentes efeitos desses mapas temáticos de uso e ocupação do solo na atmosfera local. Os resultados indicam uma tendência de aumento da precipitação média anual e da frequência média de dias com precipitação, diminuição da temperatura média das máximas e aumento da temperatura média das mínimas ao longo dos anos na região de Santarém. A área de estudo, até o ano de 1997, registrou um desmatamento de 19,44% e até o ano de 2009 passou para 25,54%. As simulações com os arquivos gerados de uso e ocupação do solo para 1997 e 2009 apresentaram poucas variações para os diferentes mapas temáticos em suas variáveis (temperatura, umidade e fluxos de calor sensível e latente), quando considerado os valores médios da área total simulada. Porém, quando se considera pequenas áreas localizadas somente sobre as regiões que sofreram maiores modificações, observam-se maiores influências com o aumento do desmatamento.