80 resultados para partículas elementares


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A fatoração de números inteiros é um assunto que, embora muito antigo, desperta cada vez mais interesse. Existem vários métodos de criptografia de chave pública, baseados não só em fatoração de inteiros, mas também em resolução de logarítmos discretos, por exemplo, cuja segurança depende da ineficiência dos métodos de fatoração conhecidos. Este trabalho tem como objetivo descrever os principais métodos de fatoração utillizados hoje em dia. Primeiramente, três métodos elementares serão estudados: o método de Fermat e os métodos Rho e p - 1 de Pollard. A seguir, os dois mais poderosos métodos de fatoração para inteiros sem forma especial: o método de curvas elípticas, e o método de peneira quadrática, os quais tomam como base os métodos p - 1 e de Fermat, respectivamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O conhecimento dos fungos anemófilos em determinada cidade ou região é importante para o diagnóstico etiológico e o tratamento específico das manifestações alérgicas respiratórias. Várias técnicas quantitativas e qualitativas são preconizadas para coleta e identificação desses fungos na dependência do local estudado. Nesta pesquisa, sobre esporos de fungos do ar, foi utilizado o equipamento Rotorod Sampler®, que retira a amostra do ar através de um bastão de plástico preso a um motor elétrico que o faz girar rapidamente, sendo as partículas suspensas no ar recolhidas pelo bastão. As amostras foram coletadas uma vez por semana, durante 24 horas, correspondendo a um ciclo de coleta. Foram realizadas 52 coletas entre abril de 2000 e março de 2001. Os resultados mostraram prevalência de ascosporos (50,49%), Cladosporium (17,86%), Aspergillus/Penicillium (15,03%), basidiosporos (3,84%), rusts (3,82%), Helminthosporium (2,49%), Botrytis (1,22%), Alternaria (1,19%), smuts (0,90%), Curvularia (0,87%), Nigrospora (0,61%) e Fusarium (0,08%). Não foi possível identificar 1,59% dos esporos de fungos coletados no período. O maior número de esporos foi observado nos meses de verão e o menor, durante o outono. Utilizando provas in vivo e in vitro, avaliou-se a hipersensibilidade a fungos entre 39 pacientes atópicos sofrendo de rinite e ou asma brônquica. Os testes cutâneos identificaram sensibilização em 17,94% dos pacientes, enquanto as provas sorológicas caracterizaram presença de IgE específica em 12,82% dos casos avaliados. A detecção de significativo número de esporos de fungos no ar de Porto Alegre, com muitas espécies comprovadamente alergênicas, e os índices de sensibilização observados em indivíduos atópicos confirmam a importância do estudo dos fungos anemófilos nessa cidade, com vistas a aprimorar o diagnóstico e o manejo de pacientes com manifestações alérgicas respiratórias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumo não disponível.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo foi realizado com o objetivo de conhecer e analisar como o Núcleo de Tecnologia Educacional de Terra Nova do Norte está capacitando os professores da rede pública de ensino em Informática da Educação; como essa capacitação é construída nos Laboratórios de Informática nas escolas; e como os professores estão fazendo uso do computador como ferramenta pedagógica. Pretendemos determinar quais são as dificuldades encontradas nesse tipo de capacitação, estabelecendo quais as reais perspectivas dos educadores e dos alunos do ensino fundamental; à luz dos resultados, elaboraremos um conjunto de sugestões com o intuito de melhorar o nível de qualidade de atuação dos envolvidos com tecnologia da informação e da comunicação. Além disso visitamos os núcleos de: Cuiabá, Cáceres, Diamantino, Nova Xavantina, Sinop e Terra Nova do Norte; os Laboratórios de Informática nos municípios de: Terra Nova do Norte, Colider, Itaúba, Claudia, Marcelândia, Feliz Natal e Sinop. Também visitamos os professores de sala de aula que atuam no Ensino Fundamental nessas escolas. Com dificuldades financeiras, sem meios de transporte próprio, com falta de pessoal técnico e especializado e com acumulo de funções e, conseqüentemente, sobrecarga de atividades, o Núcleo de Tecnologia Educacional de Terra Nova do Norte, através de seus especialistas, vem realizando um trabalho exaustivo, mas sem perspectiva: os cursos de capacitação relâmpagos não preparam os professores nem para funções elementares, muitos menos para funções complexas Para esses cursos, deve-se conceber uma carga horária mínima de 100 (Cem) horas/aula, resguardando a relação indissociável entre teoria e prática. A capacitação dos professores multiplicadores, que ainda acontece em nível básico, é a grande dificuldade que os especialistas do núcleo estão encontrando nesse processo, pois não há como dar uma boa capacitação em informática educacional se a maioria dos professores nunca sentaram em frente a um computador. Há necessidade de se rever com muito carinho esse processo de informatização das escolas públicas, tanto na dimensão epistemológica quanto na profissionalização. Há um grande compromisso e força de vontade do pessoal das escolas e dos núcleos, o que nos leva a afirmar que, se não fosse pela tenacidade desses professores o programa já estaria em fase terminal. O programa, portanto, necessita de mais apoio e de investimento em suas potencialidades técnica e pedagógica, pois do modo como está, pouco contribui para a democratização e a melhoria do ensino.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As discrepâncias nos resultados de análises de materiais informados tanto pelo produtor quanto pelo consumidor são um problema comum na maioria das indústrias. Os contratos comerciais na indústria mineral normalmente penalizam o produtor quando uma determinada caraterística do minério exceder os limites estabelecidos. As diferenças nos resultados de análise são devidas a muitas formas de erro. Contratos rígidos impõem ao minerador o emprego de um rigoroso programa de controle de qualidade e nestas situações a amostragem possui um papel fundamental. Esta tese tem por objetivo propor um novo protocolo de amostragem e preparação de amostras que garanta a representatividade desejada pelas partes, produtor e consumidor. O estudo inicia fazendo-se uma abordagem qualitativa da amostragem, sendo enfocados os conceitos de representatividade e amostragem probabilística. É feita uma apresentação dos tipos de erros existentes em um protocolo amostral e são apresentados exemplos de problemas que ocorrem devido à falta de cuidado no dimensionamento e operação de amostradores e durante o processo de preparação da amostra. A seguir, é efetuada uma abordagem quantitativa da amostragem onde é apresentado o equacionamento matemático da teoria da amostragem de Gy. Tendo em vista as diferenças de resultados que usualmente ocorrem entre laboratórios é introduzida uma metodolo gia para a verificação da equidade destas determinações através do estudo de alguns casos. A definição do novo protocolo de amostragem foi baseada na teoria da amostragem de Gy. Para tanto, foi realizado o estudo de quatro casos com a finalidade de confirmar os princípios mais importantes da teoria da amostragem Nos ensaios foram realizadas a medição do erro total da amostragem em pilha e a verificação da existência de significância estatística deste erro em relação à disposição do carvão no depósito, foi realizada a verificação da significância do erro total na amostragem mecânica probabilística, a verificação das etapas mais críticas do processo de preparação de amostras, a determinação do erro de integração dos vários tipos de carvões testados e foi verificada a aplicabilidade da análise variográfica para a determinação do erro de integração. Os resultados encontrados mostraram a validade dos conceitos empregados pela teoria da amostragem e indicaram a impropriedade das normas brasileiras de amostragem e preparação de carvão, NBR 8291 e 8292, para garantir a representatividade da caracterização de um determinado lote de carvão. É proposto um novo protocolo de amostragem de carvão mineral, o qual leva em consideração a variabilidade das partículas componentes do lote e as formas de amostragem e preparação da amostra. Conclui-se que é possível dimensionar um sistema de controle de qualidade do carvão que seja capaz de estimar a precisão desejada e que garanta a representatividade do resultado acordada entre as partes. Por fim, é sugerida a modificação das normas brasileiras existentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A observação de uma nova classe de eventos no espalhamento profundamente inelástico (D18) elétron-próton tem gerado grande interesse teórico e experimental. Estes eventos apresentam grandes intervalos na variável pseudo-rapidez ("7)sem deteção de partículas e são interpretados como oriundos de processos com caráter difrativo. A difração é descrita segundo uma base teórica fundamentada na Teoria de Regge, a qual já era utilizada na descrição das interações difrativas nas colisões hadrônicas. A Cromodinâmica Quântica (QCD) descreve com boa concordância todas as características usuais do D18, entretanto, frente a esses fenômenos novos elementos estão sendo incorporados na teoria. A questão principal é investigar se os processos difrativos são dominados pela troca da trajetória de Regge dominante, o Pomeron, ou por interações perturbativas descritas pela QCD. OS dados existentes não permitem distingüir qual a dominância e possivelmente há uma mistura de efeitos perturbativos QCD e não-perturbativos (Regge). Neste trabalho contrapomos o modelo de Regge e o Modelo Partônico para a difração. O observável físico utilizado nas análises é a função de estrutura difrativa Ff(xjp, {3,Q2). Apontamos as características e predições do Modelo Partônico para este observável. Encontramos que o modelo descreve os dados, entretanto há problemas em regiões específicas do espectro das variáveis cinemáticas. Recentes medidas da função de estrutura apresentam uma quebra de sua fatorização. No sentido de explicar esta nova característica introduzimos uma troca extra de reggeon, de caráter não-perturbativo, como uma extensão do Modelo Partônico. Os resultados mostram que a troca de reggeon é importante para {3< 0.4 e descreve bem a quebra de fatorização. Há melhoria na dependência para pequeno {3,entretanto a troca de reggeon é pouco sensível à variação do momento transferido Q2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tese buscou averiguar quais foram os efeitos, os impactos e modificações que ocorreram na dinâmica de funcionamento de fóruns do orçamento participativo, quando a este processo decisório de grupo em larga escala e com repercussões imediatas nas próprias comunidades decisoras se agregou um apoio computacional de pequena sofisticação, com o perfil de um sistema de apoio à decisão para grupos. Estas intervenções, talhadas sob a perspectiva quaseexperimental, levaram ao ambiente real de decisão um apoio derivado de modelos baseados em critérios e atributos para a hierarquização de demandas por obras de perfil público-social. A metodologia empregada, um esboço multimétodo com técnicas distintas de atuação por grupo trabalhado, incluindo nestas distinções o papel do pesquisador, foi levada a cabo em três regiões distintas do orçamento participativo. O pesquisador, enquanto ser observante, valeu-se de um diário de campo que ao lado dos tradicionais questionários usados em quaseexperimentos, funcionou como um coletor de dados, os quais foram suplementados com igual valia por entrevistas semi-estruturadas com os atores do processo. Técnicas elementares de estatística aliadas à interpretação dos dados qualitativos a partir de codificações sugeridas por técnicas de análise de conteúdo, forjaram um grande painel de dados, que permitiu apurar os impactos da adoção da tecnologia, bem como enquadrar os efeitos nas posturas dos grupos e dos atores participantes do processo. Como idéia conclusiva, o estudo permitiu estatuir que várias das situações em apoio à decisão em grupo ocorreram, alguns outros resultados foram inesperados e quiçá contraditórios em relação à história de pesquisa do tema apoio à decisão em grupo por computador e outros se revelaram promissores para futuras pesquisas. Por fim, argüi-se a necessidade de averiguar, em ambientes como o estudado, a relação real existente entre as conotações política e racional de tomada de decisão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho estuda o reaproveitamento do efluente alcalino do branqueamento da polpa, da indústria de celulose, através de processos de separação com membranas. Para tanto, foram realizados testes com o efluente industrial para diferentes membranas e, simultaneamente, foi pesquisada a aplicação do processo de flotação como pré-tratamento para retirada de fibras do efluente. A avaliação dos resultados foi realizada por meio de determinações analíticas e monitoramento de alguns parâmetros. Os experimentos foram executados em equipamentos de bancada e piloto. A etapa de separação com membranas envolveu os processos de ultrafiltração, nanofiltração, osmose reversa e combinações destas operações. De forma a escolher um processo com retenção e fluxo permeado adequados variou-se durante os testes a pressão através das membranas e a temperatura. As análises realizadas para a caracterização do efluente foram: pH, condutividade elétrica, turbidez, sólidos totais (ST), demanda química de oxigênio (DQO), compostos organo-halogenados (AOX), ferro, magnésio, cálcio, sódio, potássio e manganês. A DQO foi o principal critério utilizado para avaliar a qualidade do permeado. Os ensaios de flotação foram realizados com e sem adição de compostos químicos auxiliares. A eficiência do processo foi avaliada através das análises de ST, condutividade elétrica, pH, recuperação de fibras, teor de alumínio, turbidez e visualmente Os resultados indicaram que todos os processos testados trouxeram uma melhoria nas características do efluente, incluindo reduções de até 90% no valor de DQO em alguns casos. O processo que apresentou a melhor performance foi a combinação UF5+ORP. A investigação preliminar sobre a flotação das fibras mostrou que, apesar de ter atingido uma remoção de fibras de 95% ainda havia a presença de partículas grosseiras, as quais poderiam causar danos aos processos com membranas. Mais estudos devem ser realizados no sentido de otimizar o processo de flotação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analisa com métodos cienciométricos a relação entre algumas características de uma amostra de periódicos de Física e os valores de Fator de Impacto (FI) publicados no Journal Citation Reports (JCR), no período de 1993 a 2000. As características estudadas são: sub-área do conhecimento, evolução temporal, tipo e tamanho do periódico, densidade dos artigos e ritmo de obsolescência da literatura. A amostra foi constituída de modo não aleatório, abrangendo todos os títulos classificados pelo Journal Citation Reports (JCR) como sendo de algumas sub-áreas da Física: Física; Física Aplicada; Física Atômica, Molecular e Química; Física da Matéria Condensada; Física de Fluídos e de Plasmas; Física Matemática; Física Nuclear; Física de Partículas e Campos; Ótica; e, Astronomia e Astrofísica. Ao total analisou-se 376 periódicos. Foi elaborado um banco de dados no programa Statistics Packet for Social Science (SPSS) versão 8.0 para a coleta das informações necessárias para a realização do estudo, bem como para o tratamento estatístico das mesmas. As hipóteses de trabalho foram testadas através da Análise de Variância (ANOVA), do Teste χ2 e da Dupla Análise de Variância por Posto de Friedman. As análises empreendidas resultaram na comprovação das seis hipóteses de trabalho à medida que foi verificado que as variáveis: tipo, tamanho, densidade, ritmo de obsolescência, sub-área e tempo influenciam, umas em maior grau, outras com menor intensidade, os valores de FI. Especificamente, destaca-se que o tamanho e o ritmo de obsolescência são as características dos periódicos que se correlacionam mais fortemente com o FI. A densidade apresentou o menor poder explicativo das diferenças existentes entre o impacto das publicações. O aspecto mais relevante verificado está na existência de associação entre sub-área e FI. As cinco sub-áreas que se distinguem das demais são: a Óptica e a Física Aplicada por apresentarem valores médios baixos de FI; e a Física de Partículas e Campos, a Física Atômica, Molecular e Química e a Física Nuclear devido às médias altas. O estudo conclui que o FI deve ser utilizado somente de modo contextualizado e relativizado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho descreve a aplicação da Programação Genética, uma técnica de Computação Evolucionária, ao problema da Síntese de Fala automática. A Programação Genética utiliza as técnicas da evolução humana para descobrir programas bem adaptados a um problema específico. Estes programas, compostos de instruções, variáveis, constantes e outros elementos que compõe uma linguagem de programação, são evoluídos ao longo de um conjunto de gerações. A Síntese de Fala, consiste na geração automática das formas de ondas sonoras a partir de um texto escrito. Uma das atividades mais importantes, é realizada através da conversão de palavras e letras para os sons da fala elementares (fonemas). Muitos sistemas de síntese são implementados através de regras fixas, escritas por programadores humanos. Um dos mais conhecidos sistemas de síntese é o FESTIVAL, desenvolvido pela Universidade de Edimburgh, usando a linguagem de programação funcional LISP e um número fixo de regras. Neste trabalho, nós exploramos a possibilidade da aplicação do paradigma da Programação Genética, para evoluir automaticamente regras que serão adotadas para implementação do idioma Português na ferramenta FESTIVAL, desenvolvido no projeto SPOLTECH (CNPq – NSF cooperação entre UFRGS e Universidade do Colorado). A modelagem do problema, consiste na definição das regras de pronúncia do Português Brasileiro, que a implementação do sistema FESTIVAL pronuncia erradamente, já que o mesmo foi implementado primariamente para o idioma Inglês. A partir destas regras, o sistema de Programação Genética, desenvolvido neste trabalho, evolui programas que constituem boas soluções para a conversão de letras para fonemas. A descrição dos resultados obtidos, cobre detalhes sobre a evolução das soluções, complexidade e regras implementadas, representadas pelas soluções mais bem adaptadas; mostrando que a Programação Genética, apesar de ser complexa, é bastante promissora.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A identificação e o monitoramento de microorganismos aquáticos, como bactérias e microalgas, tem sido uma tarefa árdua e morosa. Técnicas convencionais, com uso de microscópios e corantes, são complexas, exigindo um grande esforço por parte dos técnicos e pesquisadores. Uma das maiores dificuldades nos processos convencionais de identificação via microscopia é o elevado número de diferentes espécies e variantes existentes nos ambientes aquáticos, muitas com semelhança de forma e textura. O presente trabalho tem por objetivo o desenvolvimento de uma metodologia para a caracterização e classificação de microorganismos aquáticos (bactérias e microalgas), bem como a determinação de características cinemáticas, através do estudo da mobilidade de microalgas que possuem estruturas que permitem a natação (flagelos). Para caracterização e reconhecimento de padrões as metodologias empregadas foram: o processamento digital de imagens e redes neurais artificiais (RNA). Para a determinação da mobilidade dos microorganismos foram empregadas técnicas de velocimetria por processamento de imagens de partículas em movimento (Particle Tracking Velocimetry - PTV). O trabalho está dividido em duas partes: 1) caracterização e contagem de microalgas e bactérias aquáticas em amostras e 2) medição da velocidade de movimentação das microalgas em lâminas de microscópio. A primeira parte envolve a aquisição e processamento digital de imagens de microalgas, a partir de um microscópio ótico, sua caracterização e determinação da densidade de cada espécie contida em amostras. Por meio de um microscópio epifluorescente, foi possível, ainda, acompanhar o crescimento de bactérias aquáticas e efetuar a sua medição por operadores morfológicos. A segunda parte constitui-se na medição da velocidade de movimentação de microalgas, cujo parâmetro pode ser utilizado como um indicador para se avaliar o efeito de substâncias tóxicas ou fatores de estresse sobre as microalgas. O trabalho em desenvolvimento contribuirá para o projeto "Produção do Camarão Marinho Penaeus Paulensis no Sul do Brasil: Cultivo em estruturas Alternativas" em andamento na Estação Marinha de Aquacultura - EMA e para pesquisas no Laboratório de Ecologia do Fitoplâncton e de Microorganismos Marinhos do Departamento de Oceanografia da FURG. O trabalho propõe a utilização dos níveis de intensidade da imagem em padrão RGB e oito grandezas geométricas como características para reconhecimento de padrões das microalgas O conjunto proposto de características das microalgas, do ponto de vista de grandezas geométricas e da cor (nível de intensidade da imagem e transformadas Fourier e Radon), levou à geração de indicadores que permitiram o reconhecimento de padrões. As redes neurais artificiais desenvolvidas com topologia de rede multinível totalmente conectada, supervisionada, e com algoritmo de retropropagação, atingiram as metas de erro máximo estipuladas entre os neurônios de saída desejados e os obtidos, permitindo a caracterização das microalgas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho analisou o comportamento hidráulico e mecânico de novos materiais geotécnicos compósitos, tentando adequar suas características à utilização em barreiras horizontais impermeáveis, dando ênfase para liners de cobertura. A melhoria das propriedades das matrizes estudadas, que resultaram em novos materiais compósitos, foi avaliada através da adição de bentonita e fibras. O estudo consistiu em duas etapas: a avaliação do comportamento hidráulico e do comportamento mecânico dos compósitos. Na primeira etapa foram realizados ensaios de condutividade hidráulica em permeâmetro de parede flexível com carga constante, em amostras compactadas de solo residual de arenito Botucatu, cinza de fundo, areia e caulim, com adições de bentonita e fibras de polipropileno de 24mm. Dentre os materiais estudados, a cinza de fundo foi a única matriz que, mesmo com a adição de 18% de bentonita, não alcançou uma condutividade hidráulica inferior a 1x10-7m/s, exigida para liners de cobertura. Além disso, com o intuito de avaliar o efeito da inclusão da bentonita e da morfologia das partículas na condutividade hidráulica das misturas, principalmente para a cinza de fundo, foi feita uma análise fotomicrográfica do material em microscópio petrográfico Na segunda etapa do trabalho foi estudado o comportamento mecânico dos compósitos através de ensaios triaxiais de compressão isotrópica, ensaios triaxiais CID e CIU com trajetórias de tensão convencionais e especiais, bem como através de ensaios ring shear. Foi verificado que a adição de fibras aumenta os parâmetros de resistência ao cisalhamento (c, φ) e a resistência ao cisalhamento pós-pico dos compósitos, principalmente a baixas tensões efetivas médias iniciais e após grandes deformações. A análise conjunta dos resultados de condutividade hidráulica e do comportamento mecânico dos compósitos indica a existência de uma grande gama de materiais compósitos que podem ser utilizados como liners de cobertura: liners de areia com bentonita e areia com bentonita e fibras; liners de SRAB e SRAB com fibras e liners de caulim e caulim com fibras, sendo que o último pode ser utilizado também para resíduos perigosos ou em liners de fundo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho trata da validação de uma metodologia de análise para a determinação de dibenzo-p-dioxinas policloradas (PCDDs) em cinzas obtidas através de um processo de incineração de aparas de couro wet-blue. As dioxinas, compostos de extrema toxicidade, podem ser formadas na superfície das partículas de cinzas em reações de combustão. O mecanismo de formação de PCDDs requer uma atmosfera rica em oxigênio, uma fonte de cloro e a presença na cinza de um metal capaz de catalizar uma reação Deacon. O couro wet-blue apresenta em sua composição os precursores para a formação de dioxinas tais como o cloro e o metal catalisador sódio, cuja presença destes elementos foi comprovada por análises de superfície realizadas no couro e nas cinzas usando as técnicas de Rutherford Back-scattering Spectrometry (RBS) e Microscopia Eletrônica de Varredura (MEV). Desta forma, torna-se necessária a análise de dioxinas em cinzas de couro para especificar seu tratamento e destino final. As cinzas de couro foram obtidas numa unidade de bancada de incineração com reator de leito fixo, processo conhecido como GCC (Gaseificação e Combustão Combinadas). A metodologia utilizada para analisar dioxinas nas cinzas de couro foi baseada no Método 8280B da Agência de Proteção Ambiental dos Estados Unidos da América (EPA-USA). Este método descreve os procedimentos de extração de matrizes específicas, o clean-up para os analitos específicos e a determinação de dioxinas através das técnicas de cromatografia gasosa de alta resolução e espectrometria de massa de baixa resolução. O sucesso da análise depende da preparação dos extratos das amostras, etapa conhecida como clean-up, a qual é descrita minuciosamente neste trabalho, incluindo a montagem das colunas cromatográficas. A eficiência de extração das dioxinas foi obtida com os resultados comparativos das análises entre matrizes contaminadas com solução padrão de dioxinas e o padrão analítico. A validação deste método para análise de dioxinas policloradas em cinzas de couro wet-blue foi considerada satisfatória para os objetivos do trabalho, uma vez que a eficiência de extração de dioxinas obtida ficou dentro dos critérios estabelecidos pelo método.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho, procedeu-se a preparação e caracterização de catalisadores ambientais à base de óxido de cobre suportado em -alumina (suporte)/cordierita (substrato) e que tinham como promotor o óxido de cério. A argila foi conformada via eletroforese na forma de monolitos. Após queima à 1100°C, estes foram triturados, selecionado-se partículas com diâmetro entre 0,297 < Dp < 0,590 mm. Para a obtenção de -alumina e óxidos de cério e cobre sobre as partículas, utilizou-se a técnica de impregnação a seco (umidade incipiente), usando soluções de Al(OH)3, Ce(NO)3.6H2O e Cu(NO)3.3H2O, respectivamente . Após cada impregnação, os catalisadores foram secos e calcinados. A caracterização dos catalisadores foi feita através de experimentos de TPR (Redução à Temperatura Programada), microscopia eletrônica de varredura e espectrofotometria de absorção atômica, tendo como reação teste a oxidação de propeno com excesso de oxigênio. A caracterização da argila precursora da cordierita foi realizada através da difratometria de raios X . Procurou-se determinar neste trabalho os tipos de sítios de óxido de cobre (através do ensaio de TPR) e valores de ordens de reação e energia de ativação para a reação de oxidação de propeno através de estudos de cinética aplicada, relacionando-se os resultados com valores da literatura. Os valores de energia de ativação obtidos neste trabalho, para a oxidação de propeno, variaram de 82 kJ/mol à 100 kJ/mol e as ordens parciais de reação do propeno de 0,73 à 1,11. Todos os resultados acima foram obtidos em reator diferencial . O efeito da adição de óxido de cério nestes catalisadores também foi abordado neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A busca de uma maior competitividade tem levado a indústria a utilizar temperaturas de cementação cada vez mais elevadas. Este aumento na temperatura permite uma significativa diminuição dos tempos de tratamentos, porém pode levar a um aumento generalizado ou anormal do tamanho de grão austenítico bastante deletério as propriedades mecânicas do material. A utilização de elementos formadores de precipitados é uma alternativa para minimizar este problema. Neste trabalho foi estudado um aço SAE 5115 com adição de 0,038% em peso nióbio para ancoramento de grão. Para este estudo foi simulado um tratamento térmico de cementação em temperaturas mais elevadas, como 1000 e 1050°C, por duas horas, partindo-se de duas condições, bruto de laminação e esferoidizado. A técnica de microscopia eletrônica de transmissão (MET) foi empregada para caracterizar os precipitados, bem como avaliar sua contribuição no ancoramento do grão. A caracterização dos precipitados quanto sua composição, morfologia, tamanho e distribuição, foi realizada analisando-se amostras preparadas por extração de réplicas em filme de carbono e por lâminas finas pelo método de polimento plano no “Tripod Polisher”. Sendo que este último, convencionalmente não utilizado em aço, possibilita a obtenção de amostras com extensa área fina para observação no MET, além de facilitar a análise por minimizar o efeito de desvio de feixe em amostras magnéticas. Os resultados das análises comprovam a precipitação de partículas complexas de Nb e que a forma de distribuição, bem como o percentual de tamanho dos precipitados é de suma importância para o ancoramento do grão. Verificou-se uma tendência maior para o aparecimento de grão anormal nas amostras que sofreram o processo de esferoidização.