75 resultados para Enxame de partículas
Resumo:
Nesse trabalho, foi desenvolvido um simulador numérico (C/C++) para a resolução de escoamentos de fluidos newtonianos incompressíveis, baseado no método de partículas Lagrangiano, livre de malhas, Smoothed Particle Hydrodynamics (SPH). Tradicionalmente, duas estratégias são utilizadas na determinação do campo de pressões de forma a garantir-se a condição de incompressibilidade do fluido. A primeira delas é a formulação chamada Weak Compressible Smoothed Particle Hydrodynamics (WCSPH), onde uma equação de estado para um fluido quase-incompressível é utilizada na determinação do campo de pressões. A segunda, emprega o Método da Projeção e o campo de pressões é obtido mediante a resolução de uma equação de Poisson. No estudo aqui desenvolvido, propõe-se três métodos iterativos, baseados noMétodo da Projeção, para o cálculo do campo de pressões, Incompressible Smoothed Particle Hydrodynamics (ISPH). A fim de validar os métodos iterativos e o código computacional, foram simulados dois problemas unidimensionais: os escoamentos de Couette entre duas placas planas paralelas infinitas e de Poiseuille em um duto infinito e foram usadas condições de contorno do tipo periódicas e partículas fantasmas. Um problema bidimensional, o escoamento no interior de uma cavidade com a parede superior posta em movimento, também foi considerado. Na resolução deste problema foi utilizado o reposicionamento periódico de partículas e partículas fantasmas.
Resumo:
Esta tese, Corpo do lazer: reflexões a partir da vida lesada na hipermodernidade, representa um exercício de reflexão e investigação acerca do lazer como um fenômeno psicossocial na atualidade. Enquanto reflexão, parte do corpo como centro de gravidade da subjetividade, tomando como referenciais epistemológicos alguns teóricos da primeira geração da nomeada Escola de Frankfurt, a psicanálise freudiana e estudiosos franceses que denominam a atualidade de hipermodernidade. Outros pensadores também permearam as reflexões, principalmente aqueles que viabilizam o viés crítico argumentativo. Já como investigação, um material de campo no formato de folder teve suas construções discursivas em torno do lazer destacadas, constituindo, assim, o corpus de análise da pesquisa documental de cunho qualitativo. Neste trabalho, a reflexão e a investigação se complementam na compreensão da articulação dos dois eixos principais, as esferas do desejo e do mercado, entrelaçando a noção de corpo do lazer em tempos hipermodernos e, deste modo, buscando questionar a hipermodernidade como produto e cenário em que a existência humana é prejudicada nas partículas elementares de uma vida justa, isto é, lesada nos mínimos modos de ser e estar no mundo. No âmbito do entretenimento, a vida lesada é percebida como sofrimento psicossocial e subjaz nas artimanhas sutis dos lazeres mercadológicos em expansão na hipermodernidade. Este cenário produz novos processos de subjetivação, decorrentes também das práticas de lazer atuais voltadas para consumo, e, com isso, o lazer adquire valor de troca na realidade hipermoderna. Como o corpo está no centro da cena hipermoderna em expansão nas cidades, ele é o foco dos processos de subjetivação deste estudo. Para tanto, o corpo é abordado nas noções tragicômico e erótico-narcísico, além de outros desdobramentos, no intuito de situar o corpo do lazer. A fim de explorar a temática, serão apresentadas reflexões a partir de conceitos do lazer, da inauguração do lazer na modernidade, além de análises de como ele está inserido atualmente nos mecanismos mercadológicos regidos pela lógica econômica a fomentar a indústria do entretenimento para atender os anseios humanos por prazeres como rotina dos sentidos e das sensações voltados para o corpo. Como exemplo desse cenário, elegeu-se a Barra da Tijuca, Rio de Janeiro (RJ), como espaço urbano para a realização da pesquisa, pois neste bairro a realidade hipermoderna pode ser espontaneamente verificada. Como aspectos conclusivos, o corpo do lazer demonstra ser, por um lado, o alvo dos interesses mercadológicos pautados na lucratividade e com metas a incrementar o viver no tempo supostamente livre, baseado na emotividade e estados de felicidade. Por outro lado, o corpo capturado está na condição reduzida e fragmentada pelas mesmas estratégias instrumentais do capitalismo especulativo que fomentam modos de subjetivação baseados no consumo e nos prazeres efêmeros. No entanto, esse processo ocorre com o consentimento do sujeito afetado por essas estratégias, da mesma forma como este mesmo sujeito também afeta e determina tais estratégias e, assim, produz seus efeitos nos esquemas mercadológicos. É neste interstício entre o sujeito e o mercado que percorrerão as reflexões desta tese.
Resumo:
Neste trabalho foi feito um estudo sobre a preparação e caracterização de microesferas poliméricas à base de poli(ácido metacrílico-co-divinilbenzeno) por polimerização por precipitação. As partículas foram sintetizadas e analisadas em diferentes condições de reação. Partículas esféricas políméricas foram sintetizadas na faixa de 1,66 - 8,41 m, assim como partículas no estado de microgel. As partículas foram caracterizadas pelas técnicas de espalhamento de luz dinâmica (DLS), análise termogravimétrica (TGA), espectroscopia na região do infravermelho (FTIR), adsorção de nitrogênio pelos métodos BET (Brunauer, Emmett e Teller) e BJH (Barret, Joyner e Halenda), microscopia ótica, microscopia eletrônica de varredura, e testes de razão de inchamento. A análise das partículas foi feita para verificar a influência da mudança na composição de comonômeros, grau de reticulação, relação de monômeros totais/diluentes em massa/volume (g/100 mL), e quanto à relação volumétrica de diluentes. Verificou-se que houve um aumento no tamanho das partículas e da resistência térmica com a diminuição da fração molar de MAA (ácido metacrílico). Na preparação de partículas com fração molar de 50% de MAA, e relação volumétrica acetonitrila/tolueno de 75/25, quanto maior a relação de monômeros totais/diluentes (g/100 mL), maior o tamanho e o rendimento das partículas. Com a mudança da relação volumétrica de diluentes, houve mudança nas características de porosidade, tamanho das partículas, e grau de inchamento das partículas, sendo que na relação volumétrica acetonitrila/tolueno de 50/50, houve formação de microgel
Resumo:
O estoque de matéria orgânica de superfície refere-se a todo material orgânico decomposto ou em decomposição sobreposto ao solo mineral, bem como ao material orgânico misturado às partículas minerais do horizonte A. Este serve como indicador da funcionalidade e integridade de ecossistemas florestais quando o analisamos sob a perspectiva das "Formas de Húmus". Nesta perspectiva o material orgânico se presenta como disposto em camadas internas que variam no peso e espessura de acordo com a atuação dos agentes decompositores locais, e expressa a ciclagem de nutrientes que se dá a partir dos dois principais processos que sintetizam e/ou modulam o funcionamento dos ecossistemas, a produção e a decomposição da matéria orgânica. O modelo de formas de húmus segue uma classificação desenvolvida na Europa que não se aplica perfeitamente às áreas tropicais pela alta variabilidade de ambientes. Estima-se que fatores locais e particulares como características edáficas, estrutura e composição da vegetação, relevo e o microclima podem distorcer esta classificação e diferir significativamente do modelo global. Esta pesquisa buscou o refinamento deste modelo, buscando entender de que modo a pluviosidade efetiva (chuva que atravessa a copa das árvores e chega ao solo), como fenômeno de natureza microclimática, se relaciona com o estoque de matéria orgânica de superfície (sob a perspectiva das formas de húmus) em ambiente de floresta ombrófila montanhosa urbana.Para tal foram executadas análises físicas sobre o estoque de matéria orgânica de superfície, monitoramento da pluviosidade efetiva com pluviômetro experimentais adaptados para esta demanda e análises químicas sobre a água da chuva após lixiviação da matéria orgânica. Foi montada uma estrutura composta de quinze pluviômetros experimentais em uma encosta florestada no Parque Nacional da Tijuca (Rio de Janeiro - RJ) e instalação de pluviômetros eletrônicos em ambientes de céu aberto em áreas adjacentes a esta encosta pertencentes à área do parque. Os resultados indicam que da chuva que cai na floresta, cerca de 15% é interceptada pelas copas e o restante, parte é interceptada pela matéria orgânica do solo. A camada MFB (ou H) é a que retém mais água, indicando que, florestas que a decomposição é rápida no processo de fragmentação e lenta na mineralização, terão mais água retida no estoque de matéria orgânica. As diferentes camadas vão nutrir o solo de maneira diferenciada quando este processo deriva da lixiviação, como o cálcio que é liberado em a maior quantidade pelas camadas mais fragmentadas como a F e a MFB, o potássio e magnésio têm maior disponibilização quando deriva da camada L, indicando que durante este processo estes nutrientes são mais consumidos do que liberados. Foi perceptível que o sódio é bastante abundante na chuva antes mesmo de atingir a matéria orgânica, confirmando estudos anteriores. A utilização deste sistema proposto de pluviômetros experimentais possibilitou entender como esta estratificação interna do estoque de matéria orgânica de superfície acumula água, pois os métodos tradicionais não se baseiam no modelo de formas de húmus, e possibilitou ainda, o a análise do processo de lixiviação e liberação de nutrientes para o solo.
Resumo:
O Compact Muon Solenoid (CMS) é um dos principais detectores instalados no LHC que possibilita o estudo de diferentes aspectos da Física, indo do Modelo Padrão à matéria escura. Esse detector de propósito geral, foi construído para ser capaz de medir múons com uma grande precisão e todos os seus subdetectores foram construídos com uma alta granularidade, tornando possível identificar e caracterizar as propriedades cinemáticas das partículas finais da colisão. O algoritmo de reconstrução de eventos inclui a identificação de jatos, ou seja, é possível identificar a assinatura da produção de pártons na colisão e a medida de seções de choque da produção de muitos jatos é um dos métodos para se explorar as contribuições da Cromodinâmica Quântica (Quantum Chromodynamics - QCD) perturbativa, permitindo avaliar as previsões implementadas nas simulações de eventos. Tendo em vista a caracterização de processos relacionados com a QCD em colisões de próton-próton a uma energia do centro de massa de 7 TeV, é apresentada a medida da seção de choque da produção inclusiva de multijatos no CMS. Para realizar essa medida foram utilizados dados reais coletados em 2010, onde não se apresentava muitas colisões por cruzamento de pacote, com uma luminosidade integrada de L = 2,869 pb-1 e utilizando jatos que estão em quase todo o espaço de fase acessível em pseudorapidez |n|≤ 4,8 e momentum transverso pT ≥ 30 GeV/ c2. Desse resultado foram removidos os efeitos de detecção comparado com predições simuladas.
Resumo:
Apesar da grande quantidade de estudos geoquímicos e geocronológicos que têm sido executados no enxame de diques de Ponta Grossa (EDPG), pouco se sabe a respeito da tectônica associada ao seu sin e pós emplacement. O objetivo desse estudo é identificar nos diques possíveis indicadores cinemáticos a fim de compreender essa dinâmica, além de caracterizar a tectônica rúptil Meso-cenozóica associada à área, afetando todas as rochas. A área de estudo está situada no entorno da Baía de Paranaguá, estado do Paraná, onde os diques do EDPG afloram intrudindo domínios pré-cambrianos, compostos por gnaisses, sequências metassedimentares e suítes graníticas pertencentes ao Terreno Paranaguá e uma pequena parte às Microplacas Curitiba e Luís Alves, ambos em contato através de Zonas de cisalhamento (SIGA JR, 1995). Essas rochas possuem direção de foliação marcante NE-SW. Os diques estudados foram divididos em dois grupos com base em estudos petrográficos, com forte predomínio dos básicos toleíticos e subordinadamente, os básicos alcalinos. Alguns diques compostos também foram encontrados, o que demonstra ao menos dois pulsos magmáticos possivelmente associados ao mesmo evento. São diques verticais a subverticais e possuem direção principal NW-SE. Com frequência apresentam fraturamento interno de direção NE-SW, provavelmente associados ao seu processo de resfriamento. Possuem formato tabular, porém não é raro que ocorram irregulares. As principais feições indicativas de movimentação oblíqua na intrusão desses diques são as estruturas de borda em degraus, tocos e zigue-zague, que demonstram em geral uma componente distensional destral de deslocamento. Agregando dados dos demais enxames de diques toleíticos principais, chegou-se a um valor médio de N80E para o tensor σ3 da abertura do Atlântico Sul, coerente com o esperado também para EDPG, visto que foram intrudidos em um ambiente transtensivo (CORREA GOMES, 1996). Falhas e fraturas são observadas cortando tanto as rochas encaixantes quanto os diques, caracterizando uma tectônica posterior à intrusão. As principais famílias de fraturas são N20-30E, N30-40W, N80W e N60-70E, formando zonas preferenciais de erosão no cruzamento entre elas. As falhas podem apresentar plano de falha bem definido com estrias e ressaltos, ocorrendo preenchidas ou não, tendo sido observados preenchimento de sílica e material carbonático. Predomina nas falhas observadas, cinemática sinistral demonstrando mudança no campo de esforços com relação ao emplacement dos diques. O estudo da tectônica rúptil assim como do emplacement dos diques da área vem a contribuir para o melhor entendimento dos processos de abertura do Oceano Atlântico Sul, além de abranger a região emersa do que constitui o embasamento da bacia de Santos, foco de extensivos estudos atualmente, podendo-se inferir que os mesmos processos tenham afetado a região offshore.
Resumo:
Um grande desafio da atualidade é a preservação dos recursos hídricos, bem como o correto manejo dos mesmos, frente à expansão das cidades e às atividades humanas. A qualidade de um corpo hídrico é usualmente avaliada através da análise de parâmetros biológicos, físicos e químicos. O comportamento de tais parâmetros pode convenientemente ser simulado através de modelos matemáticos e computacionais, que surgem assim como uma ferramenta bastante útil, por sua capacidade de geração de cenários que possam embasar, por exemplo, tomadas de decisão. Nesta tese são discutidas técnicas de estimação da localização e intensidade de uma fonte de contaminante conservativo, hipoteticamente lançado na região predominantemente fluvial de um estuário. O lançamento aqui considerado se dá de forma pontual e contínua e a região enfocada compreendeu o estuário do Rio Macaé, localizado na costa norte do Rio de Janeiro. O trabalho compreende a solução de um problema direto, que consiste no transporte bidimensional (integrado na vertical) desse contaminante hipotético, bem como a aplicação de técnicas de problemas inversos. Para a solução do transporte do contaminante, aqui modelada pela versão 2D horizontal da equação de advecção-difusão, foram utilizados como métodos de discretização o Método de Elementos Finitos e o Método de Diferenças Finitas. Para o problema hidrodinâmico foram utilizados dados de uma solução já desenvolvida para estuário do Rio Macaé. Analisada a malha de acordo com o método de discretização, foram definidas a geometria do estuário e os parâmetros hidrodinâmicos e de transporte. Para a estimação dos parâmetros propostos foi utilizada a técnica de problemas inversos, com o uso dos métodos Luus-Jaakola, Algoritmo de Colisão de Partículas e Otimização por Colônia de Formigas para a estimação da localização e do método Seção Áurea para a estimação do parâmetro de intensidade da fonte. Para a definição de uma fonte, com o objetivo de propor um cenário experimental idealizado e de coleta de dados de amostragem, foi realizada a análise de sensibilidade quanto aos parâmetros a serem estimados. Como os dados de amostragem de concentração foram sintéticos, o problema inverso foi resolvido utilizando-os com e sem ruído, esse introduzido de forma artificial e aleatória. Sem o uso de ruído, os três métodos mostraram-se igualmente eficientes, com uma estimação precisa em 95% das execuções. Já com o uso de dados de amostragem com ruídos de 5%, o método Luus-Jaakola mostrou-se mais eficiente em esforço e custo computacional, embora todos tenham estimado precisamente a fonte em 80% das execuções. Considerando os resultados alcançados neste trabalho tem-se que é possível estimar uma fonte de constituintes, quanto à sua localização e intensidade, através da técnica de problemas inversos. Além disso, os métodos aplicados mostraram-se eficientes na estimação de tais parâmetros, com estimações precisas para a maioria de suas execuções. Sendo assim, o estudo do comportamento de contaminantes, e principalmente da identificação de fontes externas, torna-se uma importante ferramenta para a gestão dos recursos hídricos, possibilitando, inclusive, a identificação de possíveis responsáveis por passivos ambientais.
Resumo:
No presente trabalho, o modelo de identificação de danos apresentado por Stutz et al. (2005) é utilizado. A contribuição do presente trabalho consiste em avaliar alguns pontos da identificação de danos em vigas e, em seguida, expandir o modelo para identificar danos estruturais em placas. Uma avaliação do comportamento das frequências naturais e da matriz de flexibilidade para uma viga de Euler-Bernoulli simplesmente apoiada, na presença de danos simulados pelo parâmetro de coesão é realizada. Essa análise, permite também o conhecimento das regiões onde há maior sensibilidade ao dano, ajudando a traçar estratégias para melhorar a identificação de danos em regiões que sofrem poucas alterações na presença de falhas estruturais. Comparou-se o comportamento dos dois primeiros modos de vibração da viga simplesmente apoiada na presença de um dano estrutural, com os dois primeiros modos de vibração da estrutura intacta e corrompidos por ruído. Diversos métodos de localização de danos e de otimização são avaliados na tentativa de identificar os danos simulados através do campo de danos proposto por Stutz et al. (2005) na presença de dados ruidosos. Após a apresentação de resultados da identificação de danos obtidos para uma viga de Euler-Bernoulli simplesmente apoiada, uma análise do comportamento das frequências naturais e da matriz de flexibilidade de uma viga de Euler- Bernoulli engastada na presença de danos é apresentada, assim como os resultados de identificação de danos considerando-se diversos cenários e níveis de ruído. Uma importante contribuição do presente trabalho consiste em propor um método de identificação de danos via matriz de flexibilidade onde o campo de defeitos para a placa de Kirchoff é modelado via MEF. Uma análise do comportamento da matriz de flexibilidade devido à presença de danos na placa é apresentada, assim como os resultados numéricos da identificação de danos estruturais com e sem a presença de dados ruidosos. Com a finalidade de reduzir o custo computacional na identificação de danos em estruturas complexas, uma hibridização entre o método de otimização por enxame de particulas (PSO, do inglês, Particle Swarm Optimization) e o método de otimização Levenberg-Marquardt é proposta. Resultados numéricos da hibridização para uma estrutura do tipo placa são apresentados.
Resumo:
Em uma grande gama de problemas físicos, governados por equações diferenciais, muitas vezes é de interesse obter-se soluções para o regime transiente e, portanto, deve-se empregar técnicas de integração temporal. Uma primeira possibilidade seria a de aplicar-se métodos explícitos, devido à sua simplicidade e eficiência computacional. Entretanto, esses métodos frequentemente são somente condicionalmente estáveis e estão sujeitos a severas restrições na escolha do passo no tempo. Para problemas advectivos, governados por equações hiperbólicas, esta restrição é conhecida como a condição de Courant-Friedrichs-Lewy (CFL). Quando temse a necessidade de obter soluções numéricas para grandes períodos de tempo, ou quando o custo computacional a cada passo é elevado, esta condição torna-se um empecilho. A fim de contornar esta restrição, métodos implícitos, que são geralmente incondicionalmente estáveis, são utilizados. Neste trabalho, foram aplicadas algumas formulações implícitas para a integração temporal no método Smoothed Particle Hydrodynamics (SPH) de modo a possibilitar o uso de maiores incrementos de tempo e uma forte estabilidade no processo de marcha temporal. Devido ao alto custo computacional exigido pela busca das partículas a cada passo no tempo, esta implementação só será viável se forem aplicados algoritmos eficientes para o tipo de estrutura matricial considerada, tais como os métodos do subespaço de Krylov. Portanto, fez-se um estudo para a escolha apropriada dos métodos que mais se adequavam a este problema, sendo os escolhidos os métodos Bi-Conjugate Gradient (BiCG), o Bi-Conjugate Gradient Stabilized (BiCGSTAB) e o Quasi-Minimal Residual (QMR). Alguns problemas testes foram utilizados a fim de validar as soluções numéricas obtidas com a versão implícita do método SPH.
Resumo:
Três catalisadores contendo o mesmo teor de fase ativa (20% de óxido de molibdênio e 4% de óxido de níquel), mas constituídos por diferentes suportes (alumina, sílica-alumina e alumina zeólita) foram preparados com o objetivo de se obter catalisadores bifuncionais com acidez distinta e boa dispersão da fase metálica visando analisar o papel da acidez do suporte na conversão da tetralina. Os catalisadores e seus respectivos suportes foram caracterizados na formas óxido e sulfeto e avaliados na reação de hidrogenação da tetralina, que representa bem os monoaromáticos presentes nas correntes de petróleo. A caracterização textural mostrou que tanto a área específica quanto o volume de poros foram pouco alterados após a incorporação dos óxidos metálicos aos suportes. Os catalisadores apresentaram uma dispersão relativamente boa da fase ativa, conforme indicado pelos resultados de MET, DRX e DRS. Os resultados obtidos por TPD de n-propilamina e por espectroscopia de IV de piridina mostraram que a incorporação de óxidos de molibdênio e níquel levou a um aumento da acidez de Brönsted, o que foi atribuído à criação de novos sítios ácidos associados ao óxido de molibdênio ou a sítios de interface deste com o suporte. Obteve-se uma boa correlação entre a atividade de conversão da tetralina e o rendimento em produtos aromáticos e abertura de ciclo naftênico com a acidez de Brönsted do suporte, com a seguinte ordem de atividade para a conversão da tetralina: NiMo/alumina < NiMo/sílica-alumina < NiMo/alumina zeólita. O aumento do rendimento de produtos de hidrogenação foi relacionado à existência de um efeito eletrônico entre os sítios de Brönsted do suporte e as partículas de sulfeto suportado. No entanto, para o catalisador suportado em alumina-zeólita, onde em princípio a fase hidrogenante estaria distante dos sítios ácidos, sugeriu-se a possibilidade de uma rota alternativa de hidrogenação a partir do metil-indano formado nos centros ácidos da zeólita.
Resumo:
Ao contrário do período precedente de criação da chamada ciência moderna, o século XVIII parece não desempenhar um papel fundamental no desenvolvimento da física. Na visão de muitos autores, o século das luzes é considerado como uma fase de organização da mecânica que teve seu coroamento com as obras de Lagrange, imediatamente precedidas por Euler e dAlembert. Muitos autores afirmam que na formulação da mecânica racional houve uma eliminação gradual da metafísica e também da teologia e que o surgimento da física moderna veio acompanhado por uma rejeição da metafísica aristotélica da substância e qualidade, forma e matéria, potência e ato. O ponto central da tese é mostrar que, no século XVIII, houve uma preocupação e um grande esforço de alguns filósofos naturais que participaram da formação da mecânica, em determinar como seria possível descrever fenômenos através da matemática. De uma forma geral, a filosofia mecanicista exigia que as mudanças observadas no mundo natural fossem explicadas apenas em termos de movimento e de rearranjos das partículas da matéria, uma vez que os predecessores dos filósofos iluministas conseguiram, em parte, eliminar da filosofia natural o conceito de causas finais e a maior parte dos conceitos aristotélicos de forma e substância, por exemplo. Porém, os filósofos mecanicistas divergiam sobre as causas do movimento. O que faria um corpo se mover? Uma força externa? Uma força interna? Força nenhuma? Todas essas posições tinham seus adeptos e todas sugeriam reflexões filosóficas que ultrapassavam os limites das ciências da natureza. Mais ainda: conceitos como espaço, tempo, força, massa e inércia, por exemplo, são conceitos imprescindíveis da mecânica que representam uma realidade. Mas como a manifestação dessa realidade se torna possível? Como foram definidos esses conceitos? Embora não percebamos explicitamente uma discussão filosófica em muitos livros que versam sobre a mecânica, atitudes implícitas dessa natureza são evidentes no tratamento das questões tais como a ambição à universalidade e a aplicação da matemática. Galileu teve suas motivações e suas razões para afirmar que o livro da natureza está escrito em liguagem matemática. No entanto, embora a matemática tenha se tornado a linguagem da física, mostramos com esta tese que a segunda não se reduz à primeira. Podemos, à luz desta pesquisa, falarmos de uma mecânica racional no sentido de ser ela proposta pela razão para organizar e melhor estruturar dados observáveis obtidos através da experimentação. Porém, mostramos que essa ciência não foi, como os filósofos naturais pretendiam que assim fosse, obtidas sem hipóteses e convenções subjetivas. Por detrás de uma representação explicativa e descritiva dos fenômenos da natureza e de uma consistência interna de seus próprios conteúdos confirmados através da matemática, verificamos a presença da metafísica.
Resumo:
Foi estudada a influência da temperatura na desativação de catalisadores automotivos comerciais, à base de Pt/Rh e de Pd/Rh, de diferentes fabricantes. Foram empregadas técnicas de caracterização textural e físico-química como FRX, AAS, fisissorção de N2, TG-ATD, DRX, RTP, quimissorção de H2 e MEV-EDX. Os catalisadores foram avaliados nas reações de oxidação do CO e oxidação do propano, utilizando uma mistura de gases estequiométrica semelhante ao gás de exaustão. Os catalisadores denominados G e V, de Pt/Rh e Pd/Rh, respectivamente, foram envelhecidos a 900C, em condições estequiométricas, e a 1200C, em ar, por períodos de tempo determinados. Em relação ao envelhecimento a 900C, apesar da caracterização apontar melhores resultados para o catalisador G, a comparação com os catalisadores novos indicou que a extensão da desativação sofrida pelo catalisador V foi menor do que aquela sofrida pelo catalisador G. O envelhecimento oxidante a 1200C foi muito prejudicial ao desempenho de ambos os catalisadores. Os difratogramas dos catalisadores envelhecidos nestas condições mostraram fenômenos importantes de transição de fase da alumina, bem como indícios de formação de novas fases a partir do óxido misto de Ce/Zr. Os perfis de RTP mostraram uma grande queda na redutibilidade, tanto para o catalisador G como para o V após este envelhecimento, e as micrografias de MEV-EDX mostraram estruturas muito sinterizadas e vários pontos de Pd aglomerado no catalisador V. Esse catalisador também apresentou partículas de texturas incomuns. Além disso, para ambos foi verificado indícios de perda de material nas amostras calcinadas por 72h a 1200C. Com relação aos resultados de avaliação catalítica, o catalisador G apresentou um desempenho inferior ao do catalisador V. A realização de envelhecimentos em atmosfera oxidante pode justificar esse comportamento uma vez que esse procedimento promove a formação de óxidos de platina, menos ativos que a platina metálica para essas reações. Além disso, este catalisador apresentou um teor de Pt bem abaixo daqueles registrados na literatura para catalisadores automotivos comerciais. Por outro lado, para catalisadores de Pd, o envelhecimento oxidante leva à formação de PdO, mais ativo que o Pd metálico. Outra observação significativa em relação à avaliação catalítica foi o fato de o catalisador G novo ter apresentado uma atividade muito baixa, especialmente para o propano, que tendeu a aumentar com o envelhecimento térmico. Foi sugerido que este catalisador precisaria de uma ativação térmica, a qual o catalisador V parece ter sido submetido durante a fabricação, pois há indícios da ocorrência de certo desgaste térmico neste catalisador novo, como mostrados pelos resultados de fisissorção de N2, DRX, TG-ATD, RTP e MEV-EDX. Foi também mostrado que os resultados de quimisorção de H2, apesar de não poderem ser usados na determinação da dispersão metálica, apresentaram uma tendência de correlação entre o consumo de H2 e o desempenho catalítico expresso como T50 ou T20. Observa-se um aumento na atividade catalítica quando a quantidade de H2 dessorvido (DTP-H2) aumenta. Concluindo, o envelhecimento térmico mostrou ser prejudicial ao desempenho do catalisador comercial, principalmente para situações drásticas como o envelhecimento realizado a 1200C em condições oxidantes
Resumo:
Nesta tese é realizada a modelagem do comportamento hidráulico dos principais rios que compõem a bacia hidrográfica do Rio Bengalas, localizada no município de Nova Friburgo-RJ, a qual abrange a área mais urbanizada da referida cidade. Para a realização das simulações foi utilizado o Sistema de Modelagem de Águas MOHID, ferramenta MOHID Land. Já para a calibração do modelo foram adotados alguns métodos de otimização, mais precisamente, os algoritmos de Luus- Jaakola (LJ) e Colisão de Partículas (PCA), acoplados ao referido sistema, com o intuito de determinar os principais parâmetros necessários à modelagem de corpos hídricos, bem como suas bacias hidrográficas. Foram utilizados dados topográficos do IBGE disponibilizados pela prefeitura após a elaboração do Plano de Águas Pluviais da região de interesse. Com o modelo devidamente calibrado por meio de dados experimentais, foi realizada a validação do mesmo através da simulação de inundações nesta região. Apesar de técnicas de otimização acopladas à plataforma MOHID terem sido utilizadas pela primeira vez em um rio de montanha, os resultados apresentaram-se importantes e qualitativamente satisfatórios do ponto de vista de auxílio à tomada de decisões, tendo como base a prevenção de danos causados pelas elevações da lâmina dágua que ocorrem frequentemente em Nova Friburgo, como por exemplo, a recente tragédia de janeiro de 2011 ocorrida na Região Serrana do Estado do Rio de Janeiro.
Resumo:
Fontes radioativas possuem radionuclídeos. Um radionuclídeo é um átomo com um núcleo instável, ou seja, um núcleo caracterizado pelo excesso de energia que está disponível para ser emitida. Neste processo, o radionuclídeo sofre o decaimento radioativo e emite raios gama e partículas subatômicas, constituindo-se na radiação ionizante. Então, a radioatividade é a emissão espontânea de energia a partir de átomos instáveis. A identificação correta de radionuclídeos pode ser crucial para o planejamento de medidas de proteção, especialmente em situações de emergência, definindo o tipo de fonte de radiação e seu perigo radiológico. Esta dissertação apresenta a aplicação do método de agrupamento subtrativo, implementada em hardware, para um sistema de identificação de elementos radioativos com uma resposta rápida e eficiente. Quando implementados em software, os algoritmos de agrupamento consumem muito tempo de processamento. Assim, uma implementação dedicada para hardware reconfigurável é uma boa opção em sistemas embarcados, que requerem execução em tempo real, bem como baixo consumo de energia. A arquitetura proposta para o hardware de cálculo do agrupamento subtrativo é escalável, permitindo a inclusão de mais unidades de agrupamento subtrativo para operarem em paralelo. Isso proporciona maior flexibilidade para acelerar o processo de acordo com as restrições de tempo e de área. Os resultados mostram que o centro do agrupamento pode ser identificado com uma boa eficiência. A identificação desses pontos pode classificar os elementos radioativos presentes em uma amostra. Utilizando este hardware foi possível identificar mais do que um centro de agrupamento, o que permite reconhecer mais de um radionuclídeo em fontes radioativas. Estes resultados revelam que o hardware proposto pode ser usado para desenvolver um sistema portátil para identificação radionuclídeos.
Resumo:
Ensaio não destrutivo é uma ferramenta essencial quando um equipamento, dispositivo ou componente não pode ser submetido a procedimentos destrutivos ou invasivos devido a razões de segurança, alto custo ou outras restrições físicas ou logísticas. Dentro deste quadro radiografias por transmissão com raios gama e nêutrons térmicos são técnicas singulares para inspecionar um objeto e desvendar sua estrutura interna devido à capacidade de atravessar uma vasta gama de materiais utilizados na indústria. Grosso modo, raios gama são mais atenuados por materiais pesados enquanto nêutrons térmicos são mais atenuados por materiais mais leves, tornando-as ferramentas complementares. Este trabalho apresenta os resultados obtidos na inspeção de vários componentes mecânicos, através da radiografia por transmissão com nêutrons térmicos e raios gama. O fluxo de nêutrons térmicos de 4,46x105 n.cm-2.s-1 disponível no canal principal do reator de pesquisa Argonauta do Instituto de Engenharia Nuclear foi usado como fonte para as imagens radiográficas com nêutrons. Raios dekeV emitidos pelo 198Au, também produzido no reator, foram usados como fonte de radiação para radiografias . Imaging Plates, especificamente produzidos para operar com nêutrons térmicos ou com raios X, foram empregados como detectores e dispositivos de armazenamento e captação de imagens para cada uma dessas radiações. Esses dispositivos exibem varias vantagens quando comparados ao filme radiográfico convencional. Com efeito, além de maior sensibilidade e serem reutilizáveis não são necessários câmaras escuras e processamento químico para a revelação. Em vez disso, ele é lido por um feixe de laser que libera elétrons armadilhados na rede cristalina durante a exposição à radiação, fornecendo uma imagem final digital. O desempenho de ambos os sistemas de aquisição de imagens, assim constituído, foi avaliado com respeito à sensibilidade, resolução espacial, linearidade e range dinâmico, incluído uma comparação com sistemas radiográficos com nêutrons empregando filmes e folhas de gadolínio como conversor de nêutrons em partículas carregadas. Além desta caracterização, diversos equipamentos e componentes foram radiografados com ambos os sistemas visando-se avaliar suas capacidades de desvendar a estrutura interna desses objetos e detectar estruturas e estados anormais. Dentro desta abordagem, uma neutrongrafia detectou a presença de material cerâmico remanescente empregado como molde no processo de fabricação nos canais de refrigeração de uma aleta do estator de uma turbina tipo turbo-fan, que deveria estar livre desse material. O reostato danificado de um sensor de pressão automotivo, foi identificado por neutrongrafia, embora nesse caso a radiografia também conseguiu realizar essa tarefa com melhor resolução, corroborando assim as curvas de resolução espacial obtidas na caracterização dos dois sistemas. A homogeneidade da distribuição do material encapsulado em uma gaxeta explosiva de chumbo utilizada na indústria aeroespacial foi igualmente verificada por neutrongrafia porque esse metal é relativamente transparente para nêutrons, mas suficientemente opaco para o explosivo rico em hidrogênio. Diversos outros instrumentos e componentes tais como variômetro, altímetro, bússola aeronáutica, injetor automotivo de combustível, foto-camera, disco rígido de computador, motor de passo, conectores eletrônicos e projéteis foram radiografados com ambos os sistemas visando avaliar suas habilidades em desvendar diferentes peculiaridades em função do agente interrogador.