14 resultados para specification
em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ
Resumo:
Os principais constituintes do ar, nitrogênio, oxigênio e argônio, estão cada vez mais presentes nas indústrias, onde são empregados nos processos químicos, para o transporte de alimentos e processamento de resíduos. As duas principais tecnologias para a separação dos componentes do ar são a adsorção e a destilação criogênica. Entretanto, para ambos os processos é necessário que os contaminantes do ar, como o gás carbônico, o vapor dágua e hidrocarbonetos, sejam removidos para evitar problemas operacionais e de segurança. Desta forma, o presente trabalho trata do estudo do processo de pré-purificação de ar utilizando adsorção. Neste sistema a corrente de ar flui alternadamente entre dois leitos adsorvedores para produzir ar purificado continuamente. Mais especificamente, o foco da dissertação corresponde à investigação do comportamento de unidades de pré-purificação tipo PSA (pressure swing adsorption), onde a etapa de dessorção é realizada pela redução da pressão. A análise da unidade de pré-purificação parte da modelagem dos leitos de adsorção através de um sistema de equações diferenciais parciais de balanço de massa na corrente gasosa e no leito. Neste modelo, a relação de equilíbrio relativa à adsorção é descrita pela isoterma de Dubinin-Astakhov estendida para misturas multicomponentes. Para a simulação do modelo, as derivadas espaciais são discretizadas via diferenças finitas e o sistema de equações diferenciais ordinárias resultante é resolvido por um solver apropriado (método das linhas). Para a simulação da unidade em operação, este modelo é acoplado a um algoritmo de convergência relativo às quatro etapas do ciclo de operação: adsorção, despressurização, purga e dessorção. O algoritmo em questão deve garantir que as condições finais da última etapa são equivalentes às condições iniciais da primeira etapa (estado estacionário cíclico). Desta forma, a simulação foi implementada na forma de um código computacional baseado no ambiente de programação Scilab (Scilab 5.3.0, 2010), que é um programa de distribuição gratuita. Os algoritmos de simulação de cada etapa individual e do ciclo completo são finalmente utilizados para analisar o comportamento da unidade de pré-purificação, verificando como o seu desempenho é afetado por alterações nas variáveis de projeto ou operacionais. Por exemplo, foi investigado o sistema de carregamento do leito que mostrou que a configuração ideal do leito é de 50% de alumina seguido de 50% de zeólita. Variáveis do processo foram também analisadas, a pressão de adsorção, a vazão de alimentação e o tempo do ciclo de adsorção, mostrando que o aumento da vazão de alimentação leva a perda da especificação que pode ser retomada reduzindo-se o tempo do ciclo de adsorção. Mostrou-se também que uma pressão de adsorção maior leva a uma maior remoção de contaminantes.
Resumo:
A contaminação do ar e do meio ambiente por combustíveis derivados de petróleo tem sido objeto de crescente pesquisa no Brasil. Dentre os tipos de poluição ao meio ambiente, a poluição atmosférica é a que causa mais incômodo à população. Esta exerce efeitos sobre a saúde humana, causando desde simples irritações até câncer de pulmão. Dos poluentes mais perigosos encontrados nesses ambientes, são destaques os hidrocarbonetos e os compostos monoaromáticos como o benzeno, tolueno e xilenos (BTX), presentes nesses combustíveis, que são extremamente tóxicos à saúde humana. Para controle desses compostos orgânicos voláteis, é necessário quantificá-los e compará-los aos valores limites de tolerância legislados no Brasil. A utilização da técnica de cromatografia gasosa e da técnica de espectroscopia por infravermelho permite realizar essa tarefa de maneira relativamente simples e rápida. Portanto o objetivo deste trabalho foi apresentar a composição química de amostras de gasolina do tipo C comercializadas nos postos revendedores da Região Metropolitana do Estado do Rio de Janeiro. Foram feitas análises quantitativas dos principais grupos químicos (parafínicos, olefínicos, naftênicos e aromáticos) e etanol por Cromatografia Gasosa de Alta Resolução e da composição de benzeno, tolueno e xileno (BTX) pela técnica de absorção no infravermelho. Os resultados foram comparados com os limites dados pela especificação da ANP (Portaria n 309) para a qualidade da gasolina, com o objetivo de se verificar se estão em conformidade com este agente regulamentador. Os resultados mostraram que todos os teores encontrados de olefínicos e aromáticos foram abaixo do limite especificado. Alguns postos apresentaram os teores de benzeno acima do limite especificado, indicando um nível de ação por parte da ANP principalmente pela ação tóxica do benzeno
Resumo:
No mês de outubro de 2007 a Comissão Nacional de Cartografia (CONCAR) lançou uma norma cartográfica composta de especificações técnicas para Estruturação de Dados Geoespaciais Digitais Vetoriais (EDGV) para a realização do mapeamento topográfico sistemático no Brasil. No mês de novembro de 2008 foi publicado o Decreto n 6666, que institui a Infra-Estrutura Nacional de Dados Espaciais e ratifica o uso das normas homologadas pela CONCAR, pelas instituições Federais. Este trabalho realiza dois requisitos, a saber: (a) fornece um esquema relacional alinhado as especificações da EDGV e (b) implementa um protótipo, com vistas a sua utilização no processo de restituição fotogramétrica nas instituições públicas responsáveis pelo mapeamento topográfico no Brasil. A implementação é realizada em ambiente de software livre. Também é importante salientar o caráter educacional da plataforma de software a ser implementada, para que o seu uso seja também direcionado para o ensino teórico e prático da fotogrametria digital nas instituições de ensino e pesquisa.
Resumo:
A indústria de processos químicos tem sofrido consideráveis transformações devido ao acirramento da competitividade. Importantes progressos tecnológicos têm sido atingidos através de técnicas de modelagem, simulação e otimização visando o aumento da lucratividade e melhoria contínua nos processos industriais. Neste contexto, as plantas de metanol, um dos mais importantes produtos petroquímicos, podem ser destacadas. Atualmente, a principal matéria-prima para obtenção de metanol é o gás natural. A produção do metanol é caracterizada por três etapas: geração de gás de síntese, conversão do gás de síntese em metanol (unidade de síntese ou loop de síntese) e purificação do produto na especificação requerida. Os custos fixos e variáveis da unidade de síntese são fortemente dependentes das variáveis operacionais, como temperatura, pressão, razão de reciclo e composição da carga. Desta forma, foi desenvolvido um conjunto de modelos e algoritmos computacionais para representar matematicamente unidades de síntese de metanol. O modelo apresenta operações unitárias associadas aos seguintes equipamentos: divisores de correntes, misturadores de correntes, compressores, trocadores de calor, vasos de flash e reatores. Inicialmente, foi proposto um simulador estacionário, que serviu como base para um pseudo-estacionário, o qual contempla a desativação do catalisador por sinterização térmica. Os simuladores foram criados segundo uma arquitetura seqüencial modular e empregou-se o método de substituição sucessiva para a convergência dos reciclos. O estudo envolveu dois fluxogramas típicos, um constituído por reatores adiabáticos em série, enquanto o outro constituído por um reator tipo quench. Uma análise do efeito das principais variáveis operacionais foi realizada para o reator e para o loop de síntese. Estudou-se também o efeito da desativação do catalisador ao longo do tempo. Uma ferramenta de otimização operacional foi empregada para alcançar a máxima produção manipulando as injeções de carga fria na entrada dos leitos catalíticos. Formulou-se também um problema de maximização do lucro em função da otimização de paradas da unidade para troca do catalisador. Os resultados obtidos apontam que a ferramenta desenvolvida é promissora para a compreensão e otimização da unidade objeto deste estudo
Resumo:
Esta pesquisa, contribuindo para os estudos em Literatura Comparada, evidencia a correlação entre Literatura e Artes Plásticas, que tem sido vista desde a Antigüidade quando ícones da analogia entre o verbal e o pictórico deixaram suas marcas na correspondência entre as artes. Tal correlação atravessou vários períodos da História e continua presente em inúmeras pesquisas, na época contemporânea. Este trabalho examina a especificação teórica de vários escritores relacionados ao tema e enfoca principalmente as formas como Pedro Nava (1903-1984) utilizou os artifícios verbal e pictórico ao lidar com duas artes distintas
Resumo:
Objetivo. O objetivo do presente estudo foi avaliar o efeito da incorporação de diacetato de clorexidina (CDA), em diferentes concentrações e tempos de armazenamento, nas propriedades físicas e na atividade antibacteriana de resinas acrílicas, utilizadas na confecção de coroas e pontes provisórias. Métodos. Fase I: Foram confeccionados 150 corpos de prova retangulares (3,0 mm X 10 mm X 64 mm), de acordo com a norma ISO 1567 e 150 corpos de prova quadrados (10 mm X 10 mm X 2,0 mm), utilizando-se duas resinas acrílicas autopolimerizáveis, Duralay (Reliance Dental Mfg. Co.) e Dencor (Clássico). Os corpos de prova foram distribuídos em 30 grupos (n=10/grupo) de acordo com a concentração de CDA incorporada às resinas (p/p) (A) 0%, (B) 1%, (C) 2%, (D) 4%, (E) 5%, em função do tempo de armazenamento em água destilada, a 37C (T0 2h, T1 7 dias, T2 30 dias). Foram realizados os ensaios de microdureza Knoop, em microdurômetro Micromet 5104, Buehler (N), rugosidade superficial (Ra), em rugosímetro digital Mitutoyo Surftest SJ-201 (n=5) e resistência à flexão em três pontos (MPa), em uma máquina de ensaio universal EMIC MF 200 DL (n=5). Fase II: Adicionalmente, a atividade antibacteriana dos materiais sobre Streptococcus mutans foi determinada através da realização de testes de difusão em meio BHI, sendo para isso confeccionados 30 corpos de prova em forma de disco (12 mm X 3,0 mm) com as mesmas 5 concentrações (n=3/grupo). Os resultados foram tabulados e submetidos à análise estatística three-way ANOVA (Fase I) e two-way ANOVA (Fase II). Resultados. ANOVA mostrou que a adição de CDA não provocou alteração significativa na resistência à flexão dos materiais testados. A resistência à flexão é inversamente proporcional ao tempo para a resina Dencor e diretamente proporcional ao tempo para a resina Duralay. Houve aumento da microdureza com o acréscimo de CDA ao material Dencor com relação ao grupo controle, enquanto que no material Duralay a CDA não interferiu significativamente nesta propriedade. A rugosidade superficial aumentou significativamente (p<0,001) com o tempo e com o aumento da concentração de clorexidina na resina Dencor e não provocou alteração significativa em Duralay. Os testes de difusão em ágar demonstraram atividade antimicrobiana significativa (p<0,05) em todos os grupos, quando comparados ao grupo-controle. A inibição ao crescimento de Streptococcus mutans foi maior com o aumento da concentração desta substância. A resina Dencor apresentou maior halo de inibição do que a resina Duralay. Conclusões. Os resultados deste estudo sugerem que a incorporação de clorexidina aos materiais testados exibiu efeito antibacteriano contra S. mutans, sem contudo afetar de maneira crítica as propriedades físicas avaliadas.
Resumo:
A especificação dos requisitos de software pressupõe que se conheçam os requisitos do sistema do que será parte. Os requisitos do sistema, por sua vez, pressupõem o conhecimento do negócio (business) onde o sistema será utilizado. Para que estes conhecimentos sejam obtidos é importante o envolvimento dos stakeholders tanto no nível de sistema quanto no nível de negócio. As literaturas sobre Engenharia de Requisitos, Engenharia de Software e Engenharia de Sistemas concordam que o envolvimento dos stakeholders é fundamental. O tratamento dispensado ao assunto, no entanto, é pequeno, dada a importância do tema. Esta dissertação, utilizando conceitos da Engenharia de Métodos Situacionais e de Design Science, apresenta o ZEP Framework, um artefato, produzido com o software EPF Composer, que permite a criação de métodos para envolver o stakeholder. Estes métodos, para serem criados, devem levar em consideração as peculiaridades da organização, dos recursos disponíveis e do projeto em si. São apresentados, ainda, alguns cenários, na área de Turismo, como exemplos da utilização do framework.
Resumo:
A compreensão dos direitos humanos considerados como universais variam ao longo da história, uma vez que as necessidades dos homens e os fatores político, econômico, social e cultural também mudam. O argumento da presente dissertação consiste em destacar a variabilidade da dimensão universal dos direitos dos homens por meio da teoria política, social e das relações internacionais, abordando questões tais como a construção do padrão dos direitos humanos na teoria política, sua institucionalização no plano internacional, a transformação dos tipos de direitos que são considerados como universais, para quem eles são estendidos e a quem seu acesso é restrito. O objetivo é discutir sobre a variabilidade do caráter universal dos direitos humanos como valores, focando na questão das reivindicações de direitos específicos a serem considerados no escopo dos direitos humanos.
Resumo:
A validação dos métodos de análises em situações fora da rotina, em P&D pesquisa e desenvolvimento, pode tornar-se um processo de difícil solução, em oposição àquelas de rotina, onde as concentrações são conhecidas. Nesta última situação, o método analítico é validado e aprovado com simplicidade. Apesar dos elementos de qualidade básicos para análises em P&D serem os mesmos adotados nas análises de rotina, fatores como o comportamento imprevisível da amostra, a composição desconhecida da matriz e interdependência com o analito, mesmo a incerteza a respeito da escolha do método instrumental, requer uma atenção renovada nos elementos de qualidade existentes. A razão pode ser atribuída à imprevisibilidade do procedimento analítico e a extensão do esforço adicional dos elementos de qualidade. As incertezas das análises em P&D requerem uma cuidadosa consideração do problema, assim como a disponibilidade de técnicas analíticas. Ao mesmo tempo, devem-se observar o planejamento e organização do trabalho, a supervisão do desenvolvimento analítico e a adequação dos aspectos técnico e organizacional - no trabalho de P&D, a definição de responsabilidades e a competência do corpo técnico. A garantia da qualidade nas indústrias farmacêuticas é estabelecida pelo desenvolvimento de especificações apropriadas para matérias-primas, produtos intermediários e produtos finais. A importância de especificações adequadas foi estabelecida e exemplos foram dados no desenvolvimento de especificação típica para produtos farmacêuticos, tais como a vacina e matéria prima. Isto incluiu uma discussão dos tipos de parâmetros que precisam ser controlados e uma indicação dos valores numéricos ou faixas esperadas para muitos materiais utilizados. A metrologia analítica que necessita ser aplicada para demonstrar a observância com as especificações foi discutida, com as implicações de desempenho do método para diferenciar variações na qualidade do produto e a simples variabilidade analítica. Esse trabalho foi escrito para laboratórios, com a finalidade de dar um suporte na implementação da validação de métodos analíticos e introduzir o conceito de incerteza da medida nas análises de rotina. O objetivo foi fornecer de uma maneira compreensível e prática a metodologia dos cálculos das medidas de incerteza baseados principalmente em dados de controle de qualidade e de validação já existentes. Exemplos práticos retirados diretamente do Laboratório de Metrologia e Validação, FIOCRUZ / Bio-Manguinhos, foram apresentados. Entretanto, o tratamento usado neste trabalho é genérico e pode ser aplicável a outros laboratórios químicos
Resumo:
Esta dissertação investiga a aplicação dos algoritmos evolucionários inspirados na computação quântica na síntese de circuitos sequenciais. Os sistemas digitais sequenciais representam uma classe de circuitos que é capaz de executar operações em uma determinada sequência. Nos circuitos sequenciais, os valores dos sinais de saída dependem não só dos valores dos sinais de entrada como também do estado atual do sistema. Os requisitos cada vez mais exigentes quanto à funcionalidade e ao desempenho dos sistemas digitais exigem projetos cada vez mais eficientes. O projeto destes circuitos, quando executado de forma manual, se tornou demorado e, com isso, a importância das ferramentas para a síntese automática de circuitos cresceu rapidamente. Estas ferramentas conhecidas como ECAD (Electronic Computer-Aided Design) são programas de computador normalmente baseados em heurísticas. Recentemente, os algoritmos evolucionários também começaram a ser utilizados como base para as ferramentas ECAD. Estas aplicações são referenciadas na literatura como eletrônica evolucionária. Os algoritmos mais comumente utilizados na eletrônica evolucionária são os algoritmos genéticos e a programação genética. Este trabalho apresenta um estudo da aplicação dos algoritmos evolucionários inspirados na computação quântica como uma ferramenta para a síntese automática de circuitos sequenciais. Esta classe de algoritmos utiliza os princípios da computação quântica para melhorar o desempenho dos algoritmos evolucionários. Tradicionalmente, o projeto dos circuitos sequenciais é dividido em cinco etapas principais: (i) Especificação da máquina de estados; (ii) Redução de estados; (iii) Atribuição de estados; (iv) Síntese da lógica de controle e (v) Implementação da máquina de estados. O Algoritmo Evolucionário Inspirado na Computação Quântica (AEICQ) proposto neste trabalho é utilizado na etapa de atribuição de estados. A escolha de uma atribuição de estados ótima é tratada na literatura como um problema ainda sem solução. A atribuição de estados escolhida para uma determinada máquina de estados tem um impacto direto na complexidade da sua lógica de controle. Os resultados mostram que as atribuições de estados obtidas pelo AEICQ de fato conduzem à implementação de circuitos de menor complexidade quando comparados com os circuitos gerados a partir de atribuições obtidas por outros métodos. O AEICQ e utilizado também na etapa de síntese da lógica de controle das máquinas de estados. Os circuitos evoluídos pelo AEICQ são otimizados segundo a área ocupada e o atraso de propagação. Estes circuitos são compatíveis com os circuitos obtidos por outros métodos e em alguns casos até mesmo superior em termos de área e de desempenho, sugerindo que existe um potencial de aplicação desta classe de algoritmos no projeto de circuitos eletrônicos.
Resumo:
Tensões residuais são uma das principais causas de falhas em componentes mecânicos submetidos a processos de fabricação. O objetivo do trabalho foi medir as tensões residuais presentes em um tubo quadrado soldado por resistência elétrica de alta frequência e caracterizar microestruturalmente o seu material. Para a caracterização, foram utilizadas técnicas de microscopia óptica (MO), microscopia eletrônica de varredura (MEV) e análise química quantitativa. Para a medição das tensões residuais, foi utilizado o método do furo cego, baseado na norma ASTM E837-08, onde rosetas (strain-gages) são coladas à peça para medir as deformações geradas devido à usinagem de um pequeno furo no local de medição. As deformações foram associadas às tensões residuais através de equações baseadas na Lei de Hooke. A caracterização revelou uma microestrutura composta basicamente de ferrita e perlita, típica de aços com baixo teor de carbono, corroborando com a especificação fornecida pelo fabricante. As tensões residuais encontradas foram trativas e mostraram-se elevadas, com alguns valores acima do limite de escoamento do material.
Resumo:
O estudo da estabilidade de emulsões de biocombustíveis destaca-se, dentre outros aspectos, pela necessidade de identificação das características destas. Esta necessidade reforça-se pela dificuldade de detecção de biodiesel e suas misturas quando estão fora de especificação, além de se aplicar aos processos de separação e purificação do biodiesel após a transesterificação. O entendimento deste problema poderá ser alcançado a partir de estudos de estabilidade associados aos modelos termodinâmicos de equilíbrio líquido-líquido (modelo NRTL) em sistemas ternários, que serão a base da modelagem proposta neste trabalho. O levantamento de dados envolve técnicas de observação direta em titulação, e ensaios de estabilidade e tensiometria, com algumas alterações das técnicas clássicas. Desta forma, o objetivo principal do trabalho é propor uma maneira de identificar e caracterizar as interfaces das emulsões formadas e estudar a estabilidade das fases envolvidas. Além disso, estuda-se a introdução de alcoóis como agentes tensoativos para viabilizar a utilização de misturas de combustíveis, mesmo na região de mais de uma fase. Para o desenvolvimento do trabalho, emulsões envolvendo os constituintes básicos serão combinadas entre si em diferentes proporções. A etapa inicial constitui-se de um mapeamento das misturas e proporções que formam as emulsões, baseadas nas curvas de equilíbrio. Em seguida, faz-se o estudo de caracterização e estabilidade destes sistemas. Com estas informações é possível mapear o sentido de incremento de tensão na interface e instabilidade da separação de fases das emulsões em relação aos diagramas ternários correspondentes. Por fim, propõe-se uma estratégia para estimar os parâmetros termodinâmicos do NRTL para as espécies presentes nos sistemas estudados e prever o comportamento dos mesmos e de sistemas similares. Este modelo matemático proposto tem como objetivo complementar a técnica experimental adotada para construção das curvas de equilíbrio, sendo bem sucedido
Resumo:
Este artigo compara a habilidade preditiva foradaamostra de um modelo DSGE (DynamicStochastic General EquilibriumModel)Novo-Keynesiano, especificado e estimado para o Brasil, com a de um modelo Autorregressivo Vetorial (VAR) e com a de um modelo AutorregressivoVetorial Bayesiano (BVAR). O artigo inova em relação a outros trabalhos similares feitos para o Brasil (Castro et al. (2011) e Caetano e Moura (2013)), ao escolher uma especificação para o modelo DSGE que, ao permitir o uso de um conjunto de informação mais rico, tornou possível computar-se a habilidade preditiva do DSGE a partir de previsões que são,verdadeiramente,previsõesfora da amostra. Ademais, diferentemente de outros artigos que utilizaram dados brasileiros, avalia-se em que medida as respostas das variáveis aos choques na política monetária e no câmbio, obtidas pelo modelo DSGE, se assemelham àquelas de um BVAR estimado através de procedimentos bayesianos desenvolvidos de forma consistente. O modelo DSGE estimado é similar ao utilizado por Justiniano e Preston (2010) e Alpanda (2010). O modelo BVAR foi estimado utilizando uma metodologia semelhante à desenvolvida por Sims e Zha (1998), Waggoner e Zha (2003) e Ramírez, Waggoner e Zha (2007).Os resultados obtidos mostram que o modelo DSGE é capaz de gerar, para algumas variáveis, previsões competitivas em relação às dos outros modelos rivais VAR e BVAR. Além disso, as respostas das variáveis aos choques nas políticas monetária e cambial, nos modelos DSGE e BVAR, são bastante similares.
Resumo:
Em projetos de inovação por design, a concepção detalhada e sistêmica do projeto amplia a probabilidade de êxito de modo a preservar e aumentar o retorno dos recursos investidos. Privilegia-se o desenvolvimento em etapas para ampliar a consciência do ecossistema e valores associados ao projeto. Deste modo, o processo é conduzido de modo mais adequado partindo do contexto e objetivos à sua especificação conceitual para execução. Um levantamento dos parâmetros, processos, atividades, formas de conexão e interação, ambiente, elementos do projeto e contexto semântico estruturam um percurso metodológico em módulos e ferramentas que refinam gradualmente a partir do objetivo inicialmente exposto ao projeto de inovação bem-sucedido.