968 resultados para Fenómenos migratorios
Resumo:
Diversas aplicações industriais relevantes envolvem os processos de adsorção, citando como exemplos a purificação de produtos, separação de substâncias, controle de poluição e umidade entre outros. O interesse crescente pelos processos de purificação de biomoléculas deve-se principalmente ao desenvolvimento da biotecnologia e à demanda das indústrias farmacêutica e química por produtos com alto grau de pureza. O leito móvel simulado (LMS) é um processo cromatográfico contínuo que tem sido aplicado para simular o movimento do leito de adsorvente, de forma contracorrente ao movimento do líquido, através da troca periódica das posições das correntes de entrada e saída, sendo operado de forma contínua, sem prejuízo da pureza das correntes de saída. Esta consiste no extrato, rico no componente mais fortemente adsorvido, e no rafinado, rico no componente mais fracamente adsorvido, sendo o processo particularmente adequado a separações binárias. O objetivo desta tese é estudar e avaliar diferentes abordagens utilizando métodos estocásticos de otimização para o problema inverso dos fenômenos envolvidos no processo de separação em LMS. Foram utilizados modelos discretos com diferentes abordagens de transferência de massa, com a vantagem da utilização de um grande número de pratos teóricos em uma coluna de comprimento moderado, neste processo a separação cresce à medida que os solutos fluem através do leito, isto é, ao maior número de vezes que as moléculas interagem entre a fase móvel e a fase estacionária alcançando assim o equilíbrio. A modelagem e a simulação verificadas nestas abordagens permitiram a avaliação e a identificação das principais características de uma unidade de separação do LMS. A aplicação em estudo refere-se à simulação de processos de separação do Baclofen e da Cetamina. Estes compostos foram escolhidos por estarem bem caracterizados na literatura, estando disponíveis em estudos de cinética e de equilíbrio de adsorção nos resultados experimentais. De posse de resultados experimentais avaliou-se o comportamento do problema direto e inverso de uma unidade de separação LMS visando comparar os resultados obtidos com os experimentais, sempre se baseando em critérios de eficiência de separação entre as fases móvel e estacionária. Os métodos estudados foram o GA (Genetic Algorithm) e o PCA (Particle Collision Algorithm) e também foi feita uma hibridização entre o GA e o PCA. Como resultado desta tese analisouse e comparou-se os métodos de otimização em diferentes aspectos relacionados com o mecanismo cinético de transferência de massa por adsorção e dessorção entre as fases sólidas do adsorvente.
Resumo:
Este trabalho tem como objeto as trajetórias da medicina hipocrática no pensamento médico ocidental. Através da análise bibliográfica de textos e documentos, objetivou-se compreender como os conceitos de vida e do processo saúde-doença, partindo de uma mesma raiz, foram se definindo em sistemas médicos baseados em paradigmas distintos. Para tanto, inicialmente, procurou-se levantar e analisar o nascimento e desenvolvimento da medicina hipocrática, com ênfase em seu método de observação clínica e em sua proposta terapêutica. Em seguida, foi realizada a análise do histórico e das dimensões das racionalidades médicas homeopatia e biomedicina, avaliando o papel dos conceitos sobre physis, vida e vis medicatrix naturae em cada paradigma. Na abordagem dos referidos conceitos, Canguilhem e Jacob foram os principais apoios teóricos. Conclusões: para a medicina homeopática, tal como para a medicina hipocrática, o adoecer e o curar são processo de equilíbrio e desequilíbrio que fazem parte da vida do ser humano e, por isso, também considerados único e individuais. Hahnemann criou uma terapêutica baseada no reconhecimento da pessoa enferma como um indivíduo único, singular, dotado de capacidade automantenedora e autorrestauradora, levando em conta a ideia de natureza que se manifesta em singularidades plurais a cada momento e, portanto, a prescrição medicamentosa é individualizada e mobilizadora da vis medicatrix naturae. A racionalidade médica homeopática compartilha dos conceitos hipocráticos tanto em sua doutrina, quanto nos seus sistemas diagnóstico e terapêutico. Apesar de a biomedicina ter em suas bases a medicina hipocrática, ao se tornar uma ciência das doenças, não mais compartilhou dos conceitos hipocráticos que permitiriam uma abordagem de saúde positiva e de um enfoque terapêutico baseado no sujeito como um ser único. A homeopatia afirma uma medicina que tem como categoria central de seu paradigma a categoria saúde e não a doença, consideradas fenômenos da vida. A vida, assim valorizada, se colocaria no caminho da Grande Saúde, afirmando-se em seu potencial criativo e capaz de transmutar valores.
Resumo:
Um método numérico espectronodal (END) livre de erros de truncamento espacial é desenvolvido para problemas unidimensionais de difusão de nêutrons monoenergéticos em duas versões. Na versão de problemas de autovalor, o método gera soluções numéricas para o perfil do fluxo escalar e para o fator de multiplicação efetivo (k), que coincidem com a solução analítica dominante, afora os erros da aritmética finita computacional. Na versão de fonte fxa, o método também gera soluções numéricas analíticas para o problema de fonte fixa correspondente, onde a fonte de fissão, com dependência espacial, é obtida analiticamente, a partir da reconstrução espacial do fluxo escalar gerado pelo método END para problemas de autovalor. Alguns experimentos numéricos são apresentados para dois problemas modelos a fim de ilustrar a precisão do método.
Resumo:
O presente estudo tem como objetivo geral traçar um perfil das escolhas léxico-gramaticais da escrita em inglês de um grupo de aprendizes brasileiros na cidade do Rio de Janeiro, ao longo dos anos de 2009 a 2012, através da análise de sua produção de quadrigramas (ou blocos de quatro itens lexicais usados com frequência por vários aprendizes) em composições escritas como parte da avaliação final de curso. Como objetivo específico, a pesquisa pretendeu analisar se os quadrigramas produzidos estavam dentre aqueles que haviam sido previamente ensinados para a execução da redação ou se pertenceriam a alguma outra categoria, isto é, quadrigramas já incorporados ao uso da língua ou quadrigramas errôneos usados com abrangência pela população investigada. Para tal, foram coletadas composições escritas por aprendizes de mesmo nível de proficiência de várias filiais de um mesmo curso livre de inglês na cidade do Rio de Janeiro. Em seguida, essas composições foram digitadas e anotadas para constituírem um corpus digital facilmente identificável em termos do tipo e gênero textual, perfil do aprendiz, filial e área de origem do Rio de Janeiro. O estudo faz uso de preceitos e métodos da Linguística de Corpus, área da Linguística que compila grandes quantidades de textos e deles extrai dados com o auxílio de um programa de computador para mapear uso, frequência, distribuição e abrangência de determinados fenômenos linguístico ou discursivo. O resultado demonstra que os aprendizes investigados usaram poucos quadrigramas ensinados e, coletivamente, preferiram usar outros que não haviam sido ensinados nas aulas específicas para o nível cursado. O estudo também demonstrou que quando o gênero textual faz parte de seu mundo pessoal, os aprendizes parecem utilizar mais quadrigramas previamente ensinados. Isto pode querer dizer que o gênero pode influenciar nas escolhas léxico-gramaticais corretas. O estudo abre portas para se compreender a importância de blocos léxico-gramaticais em escrita em L2 como forma de assegurar fluência e acuracidade no idioma e sugere que é preciso proporcionar maiores oportunidades de prática e conscientização dos aprendizes quanto ao uso de tais blocos
Resumo:
Esta tese de doutorado parte da perspectiva inicial de que a gramaticalização se restringe a tratado sobre itens lexicais ou discursivos que se tornam itens gramaticais (o que a enquadraria dentro da Teoria da Variação, inserta esta dentro da Pesquisa Sociolinguística), mas segue em direção a um salto epistemológico que remodele aquela perspectiva, ampliando-a a patamar do qual ela pode ser observada como teoria autônoma, investigativa de fenômenos limítrofes e nem sempre discretos entre linguagem e língua, discurso e texto, descrição e prescrição, oralidade e escrita, léxico e gramática. Desse modo, propugna-se pela visão epistemológica do tema, conduzido, até aqui, de modo puramente ontológico, circunscrito a um (e apenas um) dos muitos espectros que se podem alcançar com a aludida ampliação àquele que vem sendo perquirido como tratado, porém que, segundo se pretende demonstrar, pode e deve ser expandido à malha de uma teoria geral, qual seja a Teoria Geral da Gramaticalização: trata-se, aqui, de seu objetivo geral. Para esse propósito, vale-se a tese de filósofos da linguagem que atuaram sobre essa faculdade ou capacidade humana de forma direta ou indireta desde os seus primórdios ocidentais (como Sócrates, Platão e Aristóteles), passando pelos pensadores mais incisivamente preocupados com os aspectos cognitivos e interativos da linguagem e da língua (como Hegel, Husserl, Saussure, Sapir, Bloomfield, Wittgenstein, Derrida, Chomsky, Labov, Charaudeau, Maingueneau, Ducrot, Coseriu), além de ser necessária a incursão à Gramaticografia mais estrita (como a empreendida por Dionísio da Trácia, Varrão, Arnault e Lancelot, Nebrija, Jerônimo Soares Barbosa, Eduardo Carlos Pereira, Said Ali, Bechara), e, naturalmente, a contribuição filosófica dos pesquisadores sobre a gramaticalização (como Meillet, Vendryès, Bréal, Kurilowicz, Traugott, Heine, Hopper, Lehmann). Uma vez que se tenha mostrado ser verossímil aceitar-se a gramaticalização como teoria autônoma, esta tese pretende legar-lhe o papel instrumental de metodologia auxiliar a muitas entre as que ora se empreendem quando se trata de pesquisas em campos cuja ocupação é a linguagem e a língua: trata-se, aqui, de seu objetivo específico. Para essa duplicidade de metas ou objetivos, será necessário compreender conceitos, categorias e protótipos oriundos da Filosofia da Ciência (Epistemologia), do contraste entre ciências da linguagem e outros ramos do saber, da imersão em Gramaticologia e Gramaticografia (e, em alguns aspectos, em Gramatização e Gramatologia) referentes à Língua Portuguesa, da defesa, enfim, de que o ensino da Gramática Formal (ou Normativa) do idioma privilegia a acepção reflexiva e ativa (plena) dos usos ou atos a que a linguagem só pode chegar por meio do domínio da língua em toda a sua tessitura epistemológica, que gera comunicação e expressividade, raciocínio e emotividade, indo da concretude do discurso ou da oralidade à abstração da entidade pouco ou nada material, que, por sua vez, é mais nitidamente representada pela escrita, seu estágio por assim dizer de forma ainda mais pura, conquanto não excludente da substancialidade com que dialoga de modo incessante no seu constante e dialético passado-futuro ou diversidade-homogeneidade (tese e antítese) de onde emerge o seu presente ou a sua unidade (síntese)
Resumo:
Ao contrário do período precedente de criação da chamada ciência moderna, o século XVIII parece não desempenhar um papel fundamental no desenvolvimento da física. Na visão de muitos autores, o século das luzes é considerado como uma fase de organização da mecânica que teve seu coroamento com as obras de Lagrange, imediatamente precedidas por Euler e dAlembert. Muitos autores afirmam que na formulação da mecânica racional houve uma eliminação gradual da metafísica e também da teologia e que o surgimento da física moderna veio acompanhado por uma rejeição da metafísica aristotélica da substância e qualidade, forma e matéria, potência e ato. O ponto central da tese é mostrar que, no século XVIII, houve uma preocupação e um grande esforço de alguns filósofos naturais que participaram da formação da mecânica, em determinar como seria possível descrever fenômenos através da matemática. De uma forma geral, a filosofia mecanicista exigia que as mudanças observadas no mundo natural fossem explicadas apenas em termos de movimento e de rearranjos das partículas da matéria, uma vez que os predecessores dos filósofos iluministas conseguiram, em parte, eliminar da filosofia natural o conceito de causas finais e a maior parte dos conceitos aristotélicos de forma e substância, por exemplo. Porém, os filósofos mecanicistas divergiam sobre as causas do movimento. O que faria um corpo se mover? Uma força externa? Uma força interna? Força nenhuma? Todas essas posições tinham seus adeptos e todas sugeriam reflexões filosóficas que ultrapassavam os limites das ciências da natureza. Mais ainda: conceitos como espaço, tempo, força, massa e inércia, por exemplo, são conceitos imprescindíveis da mecânica que representam uma realidade. Mas como a manifestação dessa realidade se torna possível? Como foram definidos esses conceitos? Embora não percebamos explicitamente uma discussão filosófica em muitos livros que versam sobre a mecânica, atitudes implícitas dessa natureza são evidentes no tratamento das questões tais como a ambição à universalidade e a aplicação da matemática. Galileu teve suas motivações e suas razões para afirmar que o livro da natureza está escrito em liguagem matemática. No entanto, embora a matemática tenha se tornado a linguagem da física, mostramos com esta tese que a segunda não se reduz à primeira. Podemos, à luz desta pesquisa, falarmos de uma mecânica racional no sentido de ser ela proposta pela razão para organizar e melhor estruturar dados observáveis obtidos através da experimentação. Porém, mostramos que essa ciência não foi, como os filósofos naturais pretendiam que assim fosse, obtidas sem hipóteses e convenções subjetivas. Por detrás de uma representação explicativa e descritiva dos fenômenos da natureza e de uma consistência interna de seus próprios conteúdos confirmados através da matemática, verificamos a presença da metafísica.
Resumo:
O objetivos deste trabalho é oferecer aos profissionais de saúde e educação uma ferramenta que ilumine sua compreensão acerca dos comportamentos agressivos e das situações violentas comumente encontradas na instituição escolar. Para isso, a pesquisa se desenvolve em três capítulos e uma seção de considerações e contribuição finais. No primeiro, são apresentadas diferentes ideias sobre as noções de agressividade e violência. Os psicanalistas enfocados são Sigmund Freud, Jacques Lacan e Donald Winnicott. No segundo, é feito um estudo da teoria do desenvolvimento emocional de Winnicott. No segundo, é feito um estudo da teoria do desenvolvimento emocional de Winnicott para, no capítulo que se segue, serem analisados os significados dados pelo autor a tais fenômenos, que nos encaminham à despatologização da agressividade e à desnaturalização da violência. Por último, como uma contribuição mais direta ao campo da educação, são sugeridas reflexões e propostas para que o espaço escolar possa ser um ambiente facilitador da criatividade do sujeito e do exercício de poder do cidadão, colaborando assim, para diminuir as chances de irrupção e reprodução da violência que vem assolando o mundo contemporâneo.
Resumo:
Essa tese teve como objetivo realizar uma investigação teórica para analisar a relação entre atividade de trabalho e o desenvolvimento de adultos. Ao enfatizar o conceito de atividade como um ponto de vista a orientar a pesquisa sobre os processos de trabalho e organizacionais, entende-se aqui que o desenvolvimento de adultos (e seus impedimentos) no trabalho, pode ser um fator relevante que auxilia na tarefa de compreender estes processos. O formato de tese pela qual se fez opção foi a de cinco capítulos-artigos que, embora tenham autonomia entre si, foram articulados de forma que atendessem o objetivo geral da tese. A démarche ergológica serviu como orientação para a mobilização de diferentes referenciais teórico-metodológicos, buscando colocá-los em diálogo. Procurou-se, primeiramente, explorar as bases teóricas que fundamentam o conceito de atividade na Psicologia, particularmente aquele utilizado nas diferentes correntes e abordagens de estudo sobre o trabalho que, no Brasil, fazem parte do campo denominado Psicologia do Trabalho & Organizacional PT&O. Posteriormente foram confrontadas duas abordagens contemporâneas que investigam o desenvolvimento de adultos no trabalho sob o ponto de vista da atividade: a Didática Profissional e a Clinica da Atividade. Em seguida, procurou-se demonstrar que a Abordagem Sócio-Técnica, ao introduzir o tema da Qualidade de Vida no Trabalho (QVT) nos anos 1960 e 1970, já apontava para questões centrais referentes à atividade de trabalho e o desenvolvimento de adultos. Por último, buscou-se uma melhor compreensão acerca do desenvolvimento de adultos a partir de uma análise situada do trabalho realizado por uma gerente setorial de uma grande empresa pública. A investigação empreendida, permitiu concluir que o desenvolvimento de adultos no trabalho é possibilitado a partir da ocorrência de dois fenômenos i) confrontação ativa com o meio, fazendo com que os indivíduos reconfigurem, mesmo que de forma não consciente, aquilo que eles encontram previamente em uma situação de trabalho. ii) Mediação social, por meio da linguagem, desta vivência de confrontação com o meio.
Resumo:
A modernidade caracteriza-se por um período em que ocorreram profundas revoluções em curtos intervalos de tempo. Nela, o mundo analógico foi substituído, gradativamente, pelo digital e o mundo material passou a dividir espaço com a realidade virtual. Inicialmente representada pelo mito prometeico, a modernidade foi tomada pelo impulso fáustico que hoje se traduz no desejo de recriar a condição humana. Os tecnoprofetas da Inteligência Artificial anunciam para breve as maravilhas da pós-humanidade e se ocupam com criação de máquinas espirituais que, acreditam eles, libertarão o homem de sua condição orgânica. Ciente de que a sociedade se organiza em torno da ótica tecnocientífica e de que as inovações alteram significativamente o modo como a maioria dos seres humanos se relaciona com o tempo, com o espaço e com a vida, este estudo discute o modelo de desenvolvimento tecnológico, por entender que ele não mais constitui assunto de domínio exclusivamente técnico, mas, também, de interesse político. Ademais, com vistas a problematizar o que dá sentido à técnica, faz-se uma crítica ao modelo atual, no qual ela, a técnica, subordinada à razão intrumental, funciona como instrumento de alienação e discute as condições necessárias a sua democratização. O estudo começa examinando dois fenômenos considerados determinantes na configuração do cenário atual: o capitalismo cognitivo e a reificação-tecnológica, entendidos como construções monopolizadas pela ótica capital-tecnocientífica. A seguir, faz-se uma análise sobre as noções de técnica, tecnologia e razão técnica e discute-se o impacto do desenvolvimento tecnológico no ato médico. A medicina representa uma atividade de grande valor social para o bem estar humano, embora, nas últimas décadas, venha enfrentando uma quebra no vínculo de confiança entre médicos e pacientes, além de uma crise na identidade desse profissional que hoje enfrenta dificuldades para preservar sua autonomia, face ao mercado das novas tecnologias e estratégias de gestão. Nesse contexto, surgem novas questões a serem elaboradas e a serem respondidas por diferentes atores e áreas de conhecimento da sociedade que desejem contribuir com reflexões e propostas que façam frente aos problemas específicos de nosso tempo. O trabalho sugere, ainda, que noções como Vontade - no sentido arendtiano, ou como o Olhar atento - Josep Esquiról e como Habilidade artesanal - Richard Sennett, podem nos ajudar a compreender as incumbências de uma re-orientação ética, se quisermos construir um diálogo com a razão tecnocientífica em prol da liberdade humana.
Resumo:
O processo de recuperação secundária de petróleo é comumente realizado com a injeção de água ou gás no reservatório a fim de manter a pressão necessária para sua extração. Para que o investimento seja viável, os gastos com a extração precisam ser menores do que o retorno financeiro obtido com a produção de petróleo. Objetivando-se estudar possíveis cenários para o processo de exploração, costuma-se utilizar simulações dos processos de extração. As equações que modelam esse processo de recuperação são de caráter hiperbólico e não lineares, as quais podem ser interpretadas como Leis de Conservação, cujas soluções são complexas por suas naturezas descontínuas. Essas descontinuidades ou saltos são conhecidas como ondas de choque. Neste trabalho foi abordada uma análise matemática para os fenômenos oriundos de leis de conservação, para em seguida utilizá-la no entendimento do referido problema. Foram estudadas soluções fracas que, fisicamente, podem ser interpretadas como ondas de choque ou rarefação, então, para que fossem distinguidas as fisicamente admissíveis, foi considerado o princípio de entropia, nas suas diversas formas. As simulações foram realizadas nos âmbitos dos escoamentos bifásicos e trifásicos, em que os fluidos são imiscíveis e os efeitos gravitacionais e difusivos, devido à pressão capilar, foram desprezados. Inicialmente, foi feito um estudo comparativo de resoluções numéricas na captura de ondas de choque em escoamento bifásico água-óleo. Neste estudo destacam-se o método Composto LWLF-k, o esquema NonStandard e a introdução da nova função de renormalização para o esquema NonStandard, onde obteve resultados satisfatórios, principalmente em regiões onde a viscosidade do óleo é muito maior do que a viscosidade da água. No escoamento bidimensional, um novo método é proposto, partindo de uma generalização do esquema NonStandard unidimensional. Por fim, é feita uma adaptação dos métodos LWLF-4 e NonStandard para a simulação em escoamentos trifásicos em domínios unidimensional. O esquema NonStandard foi considerado mais eficiente nos problemas abordados, uma vez que sua versão bidimensional mostrou-se satisfatória na captura de ondas de choque em escoamentos bifásicos em meios porosos.
Resumo:
O objetivo do trabalho é investigar as teses conceituais contemporâneas sobre o normal e o patológico em medicina. Após a célebre tese de Georges Canguilhem sobre o tema e sobretudo a partir da década de 1970, a filosofia da medicina anglo-saxônica ofereceu importantes contribuições para o debate. Analisamos principalmente as teses de Christopher Boorse e Lennart Nordenfelt, autores que compartilham com Canguilhem a convicção de que a análise filosófica pode contribuir para o esclarecimento dos conceitos médicos. O primeiro é apontado na literatura como naturalista e o segundo como normativista, polarização apresentada na literatura anglo-saxônica contemporânea que reflete o debate sobre a descrição da saúde e da doença como fenômenos naturais ou como estados determinados por valores antropomórficos. Vemos que, para distinguir o normal do patológico, os autores contemporâneos naturalistas fazem uso dos critérios de função biológica e tipo biológico e os autores normativistas falam em função social e tipos ideais. Problematizamos estes conceitos usando o referencial da filosofia da biologia e dos estudos da deficiência, respectivamente, e notamos que as definições propostas pelos filósofos da medicina merecem ser refinadas.
Escolhas lexicais e iconicidade textual: uma análise do insólito no romance Sombras de Reis Barbudos
Resumo:
Esta tese dedicou-se a descrever e interpretar a tessitura textual dos fenômenos insólitos no romance Sombras de Reis Barbudos, de José J. Veiga, com base na associação entre a Teoria da Iconicidade Verbal e a Linguística de Córpus . Centrou-se, especificamente, nas marcas linguísticas que representam ideias ou conduzem o intérprete à percepção de que o insólito é construído no texto por meio itens léxicos que constituem pistas icônicas. Merecem especial interesse, sobretudo, os substantivos, que, por serem palavras com alta iconicidade, participam da construção/representação de fenômenos insólitos e criam, por meio da trilha léxica, o itinerário de leitura para o texto-córpus. Para que os resultados fossem significativos, análise apoiou-se nos recursos digitais da Linguística de Córpus (SARDINHA, 2004; 2009), que possibilitaram realizar uma pesquisa baseada em um córpus. A utilização da Linguística de Córpus como metodologia permitiu levantar, quantificar e tabular os signos que corroboram com a compreensão da incongruência e da iconicidade lexical dos fenômenos insólitos em um texto literário, identificando os substantivos-nódulos e seus colocados, para avaliá-los quanto à incompatibilidade das escolhas lexicais realizadas por José J. Veiga em relação às estruturas lexicogramaticais da Língua Portuguesa. Fundamentou-se a discussão no insólito como categoria essencial do fantástico modal (BESSIÈRE, 2009; COVIZZI, 1978, FURTADO, s.d.; PRADA OROPREZA, 2006); na Semiótica de extração peirceana, com enfoque na Teoria da Iconicidade Verbal (SIMÕES, 2007,2009) e na colocação lexical (BÉNJOINT, 1994; SINCLAIR, 1987, 1991, 2004; TAGNIN, 1989). A tese demonstra que a incongruência e a iconicidade lexical são identificadas a partir da seleção vocabular obtida pelo processamento digital e pelo confronto com o Córpus do Português. A análise comprova que os substantivos, como categorias linguísticas caracterizáveis semanticamente, têm a função designatória ou de nomeação na arquitetura de um texto em que se manifesta o insólito. Revela também que a incongruência lexical constitui-se em uma chave para a construção do ilógico, mágico, fantástico, misterioso, sobrenatural, irreal e suprarreal no texto-córpus
Resumo:
Foi estudada a influência da temperatura na desativação de catalisadores automotivos comerciais, à base de Pt/Rh e de Pd/Rh, de diferentes fabricantes. Foram empregadas técnicas de caracterização textural e físico-química como FRX, AAS, fisissorção de N2, TG-ATD, DRX, RTP, quimissorção de H2 e MEV-EDX. Os catalisadores foram avaliados nas reações de oxidação do CO e oxidação do propano, utilizando uma mistura de gases estequiométrica semelhante ao gás de exaustão. Os catalisadores denominados G e V, de Pt/Rh e Pd/Rh, respectivamente, foram envelhecidos a 900C, em condições estequiométricas, e a 1200C, em ar, por períodos de tempo determinados. Em relação ao envelhecimento a 900C, apesar da caracterização apontar melhores resultados para o catalisador G, a comparação com os catalisadores novos indicou que a extensão da desativação sofrida pelo catalisador V foi menor do que aquela sofrida pelo catalisador G. O envelhecimento oxidante a 1200C foi muito prejudicial ao desempenho de ambos os catalisadores. Os difratogramas dos catalisadores envelhecidos nestas condições mostraram fenômenos importantes de transição de fase da alumina, bem como indícios de formação de novas fases a partir do óxido misto de Ce/Zr. Os perfis de RTP mostraram uma grande queda na redutibilidade, tanto para o catalisador G como para o V após este envelhecimento, e as micrografias de MEV-EDX mostraram estruturas muito sinterizadas e vários pontos de Pd aglomerado no catalisador V. Esse catalisador também apresentou partículas de texturas incomuns. Além disso, para ambos foi verificado indícios de perda de material nas amostras calcinadas por 72h a 1200C. Com relação aos resultados de avaliação catalítica, o catalisador G apresentou um desempenho inferior ao do catalisador V. A realização de envelhecimentos em atmosfera oxidante pode justificar esse comportamento uma vez que esse procedimento promove a formação de óxidos de platina, menos ativos que a platina metálica para essas reações. Além disso, este catalisador apresentou um teor de Pt bem abaixo daqueles registrados na literatura para catalisadores automotivos comerciais. Por outro lado, para catalisadores de Pd, o envelhecimento oxidante leva à formação de PdO, mais ativo que o Pd metálico. Outra observação significativa em relação à avaliação catalítica foi o fato de o catalisador G novo ter apresentado uma atividade muito baixa, especialmente para o propano, que tendeu a aumentar com o envelhecimento térmico. Foi sugerido que este catalisador precisaria de uma ativação térmica, a qual o catalisador V parece ter sido submetido durante a fabricação, pois há indícios da ocorrência de certo desgaste térmico neste catalisador novo, como mostrados pelos resultados de fisissorção de N2, DRX, TG-ATD, RTP e MEV-EDX. Foi também mostrado que os resultados de quimisorção de H2, apesar de não poderem ser usados na determinação da dispersão metálica, apresentaram uma tendência de correlação entre o consumo de H2 e o desempenho catalítico expresso como T50 ou T20. Observa-se um aumento na atividade catalítica quando a quantidade de H2 dessorvido (DTP-H2) aumenta. Concluindo, o envelhecimento térmico mostrou ser prejudicial ao desempenho do catalisador comercial, principalmente para situações drásticas como o envelhecimento realizado a 1200C em condições oxidantes
Resumo:
As legislações ambientais estão cada vez mais severas em relação à quantidade de compostos sulfurados eliminada na atmosfera pela queima de combustíveis fósseis. Os processos de adsorção têm se destacado como uma alternativa promissora na remoção de sulfurados presentes em combustíveis. Nos estudos de adsorção, ensaios de cinética e isoterma usando banhos agitados são frequentemente utilizados na avaliação do desempenho dos adsorventes na remoção desejada. Apesar de úteis, tais ensaios apresentam algumas limitações quando os sistemas analisados envolvem elevadas relações entre a concentração inicial de soluto e massa de adsorvente. Alternativamente, este trabalho apresenta uma estratégia envolvendo a técnica da adsorção utilizando a calorimetria para o estudo de cinética e isoterma térmica de quinolina em uma sílica-alumina comercial a partir de soluções em n-hexadecano. Diferentemente das outras técnicas citadas, a adsorção por calorimetria possibilitou, em um único ensaio e com menos amostra, a obtenção da cinética térmica de adsorção, e de um ponto da isoterma térmica de adsorção. Adicionalmente, foi proposta uma modelagem dos fenômenos de transferência de calor e massa envolvidos durante o ensaio, visando simular a curva calorimétrica. Valores de coeficiente de difusão efetivo da quinolina na sílica-alumina em diferentes condições de concentração inicial de quinolina em n-hexadecano, a uma mesma temperatura, foram obtidos a partir do ajuste do modelo da curva calorimétrica aos dados experimentais
Resumo:
A estabilidade de taludes naturais é um tema de grande interesse ao engenheiro geotécnico, face às significativas perdas econômicas, e até mesmo humanas, resultantes da ruptura de taludes. Estima-se que a deflagração de escorregamentos já provocou milhares de mortes, e dezenas de bilhões de dólares em prejuízos anuais em todo o mundo. Os fenômenos de instabilização de encostas são condicionados por muitos fatores, como o clima, a litologia e as estruturas das rochas, a morfologia, a ação antrópica e outros. A análise dos condicionantes geológicos e geotécnicos de escorregamentos proporciona a apreciação de cada um dos fatores envolvidos nos processos de instabilização de encostas, permitindo a obtenção de resultados de interesse, no que diz respeito ao modo de atuação destes fatores. O presente trabalho tem como objetivo a utilização da Lógica Nebulosa (Fuzzy) para criação de um Modelo que, de forma qualitativa, forneça uma previsão do risco de escorregamento de taludes em solos residuais. Para o cumprimento deste objetivo, foram estudados os fatores envolvidos nos processos de instabilização de encostas, e a forma como estes fatores se interrelacionam. Como experiência do especialista para a elaboração do modelo, foi analisado um extenso banco de dados de escorregamentos na cidade do Rio de Janeiro, disponibilizado pela Fundação Geo-Rio. Apresenta-se, neste trabalho, um caso histórico bem documentado para a validação do Modelo Fuzzy e análises paramétricas, realizadas com o objetivo verificar a coerência do modelo e a influência de cada um dos fatores adotados na previsão do risco de escorregamento. Dentre as principais conclusões, destaca-se a potencialidade da lógica nebulosa na previsão de risco de escorregamentos de taludes em solo residual, aparecendo como uma ferramenta capaz de auxiliar na detecção de áreas de risco.