18 resultados para Cromatografia por injeção sequencial
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
A perda do desempenho de uma edificação está associada ao aparecimento de patologias. A escolha de uma adequada terapia para os problemas encantrados, depende de um diagnóstico preciso do caso. A fissuração do concreto é alvo deste trabalho, por ser ela uma das manifestacoes patológicas mais incidentes nas edificacões, tanto a nível nacional como mundial. Nesse trabaho os diversos tipos de fissuras verificadas no concreto são agrupadas em ativas e passivas. Apresenta-se,H ainda, os materiais e técnicas de recuperacão para corrigir as fissuras dos dois grupos. Entre as soluções mais adotadas para recuperar as problemas patológicos, as que utilizam sistemas de base epóxi possuem destaque. O trabalho faz uma discussão sobre os fatores que influenciam o desempenho de sistemas epóxi destinados à injeção de fiissuras passivas do concreto e apresenta ensaios que podem ser realizados para garantir o sucesso da técnica. Ao final, apresenta um exemplo de avaliação de sistemas epóxi, encontradas no mercado nacional, destinados à injecão de fissuras e uma análise dos resultados obtidos.
Resumo:
O presente trabalho realiza uma validação experimental, através da técnica de injeção de falhas por software, de sistemas de informações que utilizam gerenciadores de banco de dados distribuídos comerciais. Estes experimentos visam a obtenção de medidas da dependabilidade do SGBD utilizado, levantamento do custo de seus mecanismos de tolerância a falhas e a real aplicabilidade de SGBDs comerciais em sistemas de missão crítica. Procurou-se avaliar e validar as ferramentas de injeção de falhas utilizadas, no caso específico deste trabalho a ComFIRM e o FIDe. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho. Em seguida são apresentadas algumas ferramentas de injeção de falhas em sistemas distribuídos, bem como os modelos de falhas em banco de dados distribuídos. São analisados alguns estudos de aplicação de ferramentas de injeção de falhas em bancos de dados distribuídos. Concluída a revisão bibliográfica é apresentado o modelo de software e hardware que foi implementado, destacando o gerador de cargas de trabalho GerPro-TPC e o gerenciador de injeções e resultados GIR. O GerPro-TPC segue as especificações TPC-c para a simulação de um ambiente transacional comercial padrão e o GIR realiza a integração das ferramentas de injeção de falhas utilizadas, bem como a elaboração do cenário de falhas a injetar e a coleta dos resultados das falhas injetadas. Finalmente são descritos os experimentos realizados sobre o SGBD PROGRESS. São realizados 361 testes de injeções de falhas com aproximadamente 43.000 falhas injetadas em experimentos distintos. Utiliza-se dois modelos de falhas: um focado em falhas de comunicação e outro em falhas de hardware. Os erros resultantes das falhas injetadas foram classificados em erros ignorados/mascarados, erros leves, erros graves e erros catastróficos. Dos modelos de falhas utilizados as que mais comprometeram a dependabilidade do SGBD foram as falhas de hardware. As falhas de comunicação somente comprometeram a disponibilidade do sistema alvo.
Resumo:
O objetivo deste estudo foi analisar o papel do polimorfismo de I/D do gene da Enzima Conversora de Angiotensina (ECA) e o polimorfismo K121Q da PC-1 nas modificações das taxas de filtração glomerular (TFG), excreção urinária de albumina (EUA) e pressão arterial em uma coorte de pacientes diabéticos tipo 1 normoalbuminúricos (EUA<20μg/min) em um estudo com seguimento de 10,2 ± 2,0anos (6,5 a 13,3 anos). A EUA (imunoturbidimetria), TFG (técnica da injeção única de 51Cr-EDTA), HbA1c (cromatografia de troca iônica) e pressão arterial foram medidas no início do estudo e a intervalos de 1,7 ± 0,6 anos. O polimorfismo I/D e K121Q foram determinados através da PCR e restrição enzimática. Onze pacientes apresentaram o genótipo II, 13 o ID e 6 apresentaram o genótipo DD. Pacientes com o alelo D (ID/DD) desenvolveram mais freqüentemente hipertensão arterial e retinopatia diabética. Os 3 pacientes do estudo que desenvolveram nefropatia diabética apresentaram o alelo D. Nos pacientes ID/DD (n=19) ocorreu maior redução da TFG quando comparados com os pacientes II (n=11) (-0,39 ± 0,29 vs – 0,12 ± 0,37 ml/min/mês; P=0,035). A presença do alelo D, em análise de regressão múltipla linear (R2=0,15; F=4,92; P=0,035) foi o único fator associado à redução da TFG (-0,29 ± 0,34 ml/min/mês; P<0,05). Já o aumento da EUA (log EUA = 0,0275 ± 0,042 μg/min/mês; P=0,002) foi associado somente aos níveis iniciais de EUA (R2=0,17; F=5,72; P=0,024). Um aumento significativo (P<0,05) no desenvolvimento de hipertensão arterial e de novos casos de retinopatia diabética foi observado somente nos pacientes com os genótipos ID/DD. Vinte e dois pacientes apresentaram genótipo KK, 7 KQ e 1 apresentou genótipo QQ. Pacientes com os genótipos KQ/QQ apresentaram um aumento significativo (P=0,045) de novos casos de retinopatia diabética. Em conclusão a presença do alelo D nesta amostra de pacientes DM tipo 1 normoalbuminúricos e normotensos está associada com aumento na proporção de complicações microvasculares e hipertensão arterial.
Resumo:
Nos ultimos anos, com a crescente popularização das redes de computadores baseadas no protocolo IP, desde pequenas redes até metropolitanas começaram a se agrupar e a fazer do que hoje se conhece como a rede mundial de computadores.Apesar dos benefícios de comunicação e troca de informação da Internet, esse feômeno global também trouxe problemas de segurança, pois a origem e estrutura dos protocolos utilizados na comunicação entre as diversas máquinas limitam as possibilidades de prevenir, identificar ou detectar possíveis ataques ou intrusos. Assim, várias ferramentas surgiram para prevenir e auxiliar na tarefa de identicar problemas de segurança nas redes como firewalls, sniffers e sistemas de detecção de intrusão. Apesar dos benefícios trazidos por essas novas tecnologias, surgiram muitas dúvidas referentes a segurança que esses recursos proporcionam. Afinal, o desenvolvimento e validação desses sistemas são procedimentos bastante complexos e, freqüentemente, esses sitemas têm se tornado o alvo primário de um atacante. O resultado disso, não raramente, é uma falsa noção de segurança devido à utilização inadequada desses mecanismos, o que é, normalmente, mais prejudicial do que a simples inexistência de segurança em uma organização, mas cujas falhas são conhecidas por seus administradores. A realização de testes para verificação da segurança de uma organização é uma atividade fundamental a fim de alcançar um ambiente operacional seguro e de verificar a correta aplicação dos requisitos de segurança de uma organização.O uso de testes permite a uma empresa verificar com precisão a postura de segurança utilizada em seus sistemas ao mesmo tempo em que permite visualizar a sua rede da mesma maneira que um atacante a visualizaria. Ao visualizar a rede como atacante, pode-se verificar com que facilidade obtém-se informações da rede, quais suas fragilidades e a dificuldade que se tem para invadí-la. Assim, obtém-se uma visão mais realista da segurança de uma organização. Além de técnicas para a avaliação, é muito importante que se possua ferramentas para a realização desses testes. Assim, é possível automotizar a realização de testes e verificar com maior facilidade a existência de problemas em uma rede. A existência de ferramentas que testem sistemas de segurnaça é extremamente importante e necessária, pois, afinal, a segurança de toda uma rede pode depender fortemente de algum desses sistemas. Este trabalho apresenta as técncias existentes para a injecção de falhas visando verificar as que são mais eficientes para a valiação de sistemas de segurança de rede. Adicionalmente são apresentadas algumas técnicas para o teste de mecanismos de segurança e algumas ferramentas existentes para a realizão de tais testes. A partir desses estudos, é apresentado um modelo de ferramenta adequando as funções de um sistema de injeção de falhas ao teste de mecanismos de segurança em rede. Um protótipo essa ferramenta foi desenvolvido e é apresentado neste trabalho. Esse protótipo permite o envio e o recebimento de pacotes da pilha TCP/IP, podendo testar problemas em protocolos e sistemas utilizados na rede. E, através da utilização de plug-ins, permite que diversos tipos de ataque mais sofisticados possam ser realizados.
Resumo:
O presente trabalho tem como objetivo estabelecer uma rota alternativa para obtenção de ímãs de Fe-Si pelo processo de injeção de pós metálicos. Utilizando uma matéria-prima de custo mais baixo do que a tradicional e o processo de Mecano Síntese, deseja-se obter um ímã de baixo custo e boas propriedades magnéticas.
Resumo:
A extrusão reativa do polietileno de alta densidade (PEAD) em presença de peróxidos orgânicos pode promover sua reticulação, provocando mudanças em suas propriedades. Isto deve-se à capacidade do peróxido orgânico de abstrair hidrogênios secundários e terciários da cadeia, podendo assim formar os radicais livres necessários à ocorrência da reticulação. Neste trabalho, amostras de pó de PEAD produzido com catalisador Ziegler-Natta, para utilização em processamento por injeção, sopro ou extrusão de filmes, foram extrusadas com o peróxido de dicumila e o 2,5-dimetil-2,5-di(t-butilperoxi)-hexano em teores de 0,001 a 0,08 pcp. Os produtos obtidos foram caracterizados quanto a suas taxas de fluidez (MFR), densidades, propriedades reológicas, físicas e mecânicas. Para a avaliação reológica foram analisadas as curvas de viscosidade em função da taxa de cisalhamento e determinadas as taxas de cisalhamento críticas, ambas no reômetro capilar. O comportamento viscoelástico foi avaliado pelos módulos de armazenamento e de perda e pela viscosidade complexa. A massa molar e sua distribuição foram determinadas por cromatografia de exclusão por tamanho (SEC). O percentual de reticulação foi verificado pela determinação do teor de material de solúveis em xileno. As propriedades mecânicas analisadas foram resistência à tração, à flexão, ao tensofissuramento e módulo de elasticidade. As propriedades analisadas foram relacionadas às estruturas dos produtos resultantes da extrusão reativa. Verificou-se que a extrusão reativa do PEAD com peróxidos orgânicos originou resinas com distribuição de massas molares mais larga, caráter mais pseudoplástico e com comportamento do fundido mais elástico do que as resinas não modificadas por peróxido. A reologia, dentre as técnicas analíticas utilizadas, apresentou maior sensibilidade às mudanças estruturais decorrentes da extrusão reativa. A extrusão reativa com peróxidos originou resinas com propriedades mecânicas diferenciadas, havendo incremento na resistência ao impacto Charpy e ao tensofissuramento e diminuição no módulo de elasticidade comparativamente às resinas não modificadas. A resistência à tração não apresentou variações significativas entre as resinas modificadas e as não modificadas. O peróxido que se mostrou mais eficiente na extrusão reativa foi o 2,5-dimetil-2,5-di(t-butilperoxi)-hexano.
Resumo:
INTRODUÇÃO: Queimaduras estão associadas a uma intensa atividade imunoinflamatória; contudo, um perfil seqüencial precoce dos níveis de TNF-α, seus receptores solúveis e endotelina (ET)-1 (um potente vasoconstritor) em pacientes queimados ainda não está claro. MÉTODOS: Foram estudados vinte pacientes com uma superfície corporal queimada (SCQ) ≥ 30% e com menos de 6h desde o acidente. Amostras de sangue foram retiradas no momento zero, 6, 12, 24h para seqüencialmente medir os níveis do TNF-α, seus receptores solúveis 1 e 2 (sTNFR1 e sTNFR2) e ET-1 usando ensaios ELISA. RESULTADOS: Idade, SCQ e lesão inalatória não foram significativamente diferentes entre sobreviventes (n=10; 30±13 anos, SCQ 40±12%) e não sobreviventes (n=11; 38±15 anos, SCQ 56±20%). Níveis do sTNFR1 estavam aumentados em não sobreviventes (2937±1676 pg/ml; 4548±1436 pg/ml) comparado aos sobreviventes (1313±561 pg/ml; 2561±804 pg/ml) nas 6 e 24h, respectivamente (P=0,01 e 0,002), enquanto níveis de sTNFR2 estavam significativamente aumentados em não sobreviventes (4617±1876 pg/ml vs 2611±1325 pg/ml) somente nas 6h (P=0,015). Níveis elevados de sTNFR1 nas 6h e TNF-α nas 12h mostraram valor preditivo positivo de 100% (para ambos marcadores) e valor preditivo negativo para mortalidade de 70 e 52%, respectivamente; risco relativo de 3,25 e 1.2, respectivamente; com intervalos de confiança de 1,4-7,3 e 1,28-3,52, respectivamente. CONCLUSÕES: Níveis aumentados de sTNFR1 e sTNFR2 foram maiores nas 6h em pacientes queimados não sobreviventes. Níveis de TNF-α e ET-1 foram similares em não sobreviventes e sobreviventes. Determinação muito precoce de sTNFR1 e sTNFR2 poderiam ajudar a identificar o risco de prognóstico adverso em pacientes grandes queimados.
Resumo:
Este trabalho apresenta um estudo de camada “duplex” em aços para trabalho à quente da classe AISI H13, com enfoque em matrizes de injeção de ligas de alumínio, visando otimizar a vida das matrizes atuando tanto sobre os mecanismos de ataque superficial da matriz pelo alumínio como sobre a formação de trincas por fadiga térmica. O tratamento duplex consistiu em nitretação à plasma, com gás contendo 5% de nitrogênio e diferentes parâmetros de tempos e temperaturas, sendo as amostras posteriormente revestidas com nitreto de titânio (TiN) ou nitreto de cromo (CrN). As camadas nitretadas foram avaliadas através de análises metalográficas, perfis de dureza e difração de raios X, buscando caracterizar e qualificar a camada nitretada. Tendo sido observado na difração de raios X a presença de camada de compostos (nitretos de ferro ε e γ’) mesmo com a utilização de gás pobre em nitrogênio, foram também avaliados substratos nitretados sem a remoção mecânica dos nitretos e com um polimento para remoção destes antes da deposição. A rugosidade dos substratos nitretados com e sem a realização do polimento mecânico também foram determinados, buscando relação deste parâmetro com os resultados obtidos. O conjunto camada nitretada e depósitos (TiN ou CrN) com e sem o polimento mecânico após-nitretação foram avaliados em termos de adesão com ensaios de indentação Rockwell C com análise em microscopia eletrônica de varredura (qualitativamente) e com o teste do risco (quantitativamente) avaliando tanto as cargas críticas para a falha do filme como o modo de falha também em microscopia eletrônica de varredura. Além disso, foram realizados testes de fadiga térmica em banho de alumínio para simulação e avaliação do desempenho da camada “duplex” em condições de trabalho, bem como foram testadas duas condições de nitretação com TiN ou CrN em regime industrial. Os resultados mostram ganhos de adesão crescentes com o aumento dos tempos e das temperaturas de nitretação, além de maiores ganhos com a remoção mecânica (polimento) do substrato nitretado antes da deposição dos filmes. O comportamento, frente às condições de trabalho também foi superior para condições de nitretação com maiores tempos e temperaturas, tanto nos ensaios de laboratório com nos testes em regime industrial.
Resumo:
O presente trabalho explora a aplicação de técnicas de injeção de falhas, que simulam falhas transientes de hardware, para validar o mecanismo de detecção e de recuperação de erros, medir os tempos de indisponibilidade do banco de dados após a ocorrência de uma falha que tenha provocado um FUDVK. Adicionalmente, avalia e valida a ferramenta de injeção de falhas FIDe, utilizada nos experimentos, através de um conjunto significativo de testes de injeção de falhas no ambiente do SGBD. A plataforma experimental consiste de um computador Intel Pentium 550 MHz com 128 MB RAM, do sistema operacional Linux Conectiva kernel versão 2.2.13. O sistema alvo das injeções de falhas é o SGBD centralizado InterBase versão 4.0. As aplicações para a carga de trabalho foram escritas em VFULSWV SQL e executadas dentro de uma sessão chamada LVTO. Para a injeção de falhas foram utilizadas três técnicas distintas: 1) o comando NLOO do sistema operacional; 2) UHVHW geral no equipamento; 3) a ferramenta de injeção de falhas FIDe, desenvolvida no grupo de injeção de falhas do PPGC da UFRGS. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho e são necessários para a compreensão deste estudo. Em seguida é apresentada a ferramenta de injeção de falhas Xception e são também analisados alguns experimentos que utilizam ferramentas de injeção de falhas em bancos de dados. Concluída a revisão bibliográfica é apresentada a ferramenta de injeção de falhas – o FIDe, o modelo de falhas adotado, a forma de abordagem, a plataforma de hardware e software, a metodologia e as técnicas utilizadas, a forma de condução dos experimentos realizados e os resultados obtidos com cada uma das técnicas. No total foram realizados 3625 testes de injeções de falhas. Com a primeira técnica foram realizadas 350 execuções, com a segunda técnica foram realizadas 75 execuções e com a terceira técnica 3200 execuções, em 80 testes diferentes. O modelo de falhas proposto para este trabalho refere-se a falhas de crash baseadas em corrupção de memória e registradores, parada de CPU, aborto de transações ou reset geral. Os experimentos foram divididos em três técnicas distintas, visando a maior cobertura possível de erros, e apresentam resultados bastante diferenciados. Os experimentos com o comando NLOO praticamente não afetaram o ambiente do banco de dados. Pequeno número de injeção de falhas com o FIDe afetaram significativamente a dependabilidade do SGBD e os experimentos com a técnica de UHVHW geral foram os que mais comprometeram a dependabilidade do SGBD.
Resumo:
A melhoria de produtos e processos industriais pode ser realizada utilizando-se métodos de otimização experimental. Este trabalho apresenta um método estruturado para otimização envolvendo variáveis relacionadas com qualidade, comumente utilizadas, e variáveis que descrevem a confiabilidade do produto. O interesse em particular, está em sistematizar uma forma apropriada de determinar o prazo de garantia de produtos, baseado em testes de degradação acelerados. Para atingir este propósito utiliza-se projeto de experimentos conjuntamente com técnicas de avaliação sensorial, utilizada para medir o grau de degradação das amostras provindas dos testes de confiabilidade acelerados. O método é ilustrado com um estudo de caso realizado num produto fabricado em injeção de plástico. No exemplo do estudo de caso, deseja-se modelar a garantia de um piso plástico utilizado, na maternidade, para criação de suínos. Até o momento da realização da análise ocorriam reclamações de problemas com o produto dentro do prazo e garantia. O principal problema era a delaminação do produto devida a intensa fucção entre os cascos do animal e o piso. Um número elevado de reclamações durante o prazo de garantia levou ao desenvolvimento de uma nova composição do piso; o método proposto aqui é utilizado para determinar um prazo de garantia apropriado para produtos novos.
Resumo:
Este trabalho trata da técnica de validação experimental de protocolos de comunicação confiável, através da injeção de falhas de comunicação. São estudadas inicialmente as técnicas de injeção de falhas, por hardware, software e simulação, e então são aprofundados os conceitos de injeção de falhas de comunicação, modelos de falha e especificação de experimentos de injeção de falhas. Em um segundo momento, são estudadas as formas de implementação de injetores de falhas em software, em suas duas formas mais comuns: no nível da aplicação e no nível do sistema operacional. São comentados os impactos da implementação de injetores no código da aplicação, por processos concorrentes à aplicação, em código utilizado pela aplicação e no meta-nível. Por fim, são estudados também que influências sofre a implementação de um injetor de falhas em um sistema operacional, e mais especificamente a de injetores de falhas de comunicação. O objetivo específico deste trabalho é implementar um injetor de falhas de comunicação bastante abrangente e flexível, situado dentro do núcleo do Sistema Operacional Linux. Para viabilizar esta implementação foi estudada também a arquitetura do Sistema Operacional Linux, sua decomposição em subsistemas e a interação entre estes. Foram estudadas também as várias técnicas de programação e mecanismos que o Sistema Operacional Linux fornece aos seus subsistemas. Estando completas a revisão bibliográfica a respeito de injeção de falhas e o estudo do código do Sistema Operacional Linux, são apresentadas a proposta e a implementação da ferramenta ComFIRM—Communication Fault Injection through Operating System Resource Modification, suas características e sua inserção dentro do núcleo do Sistema Operacional Linux. Finalizando este trabalho, são apresentados uma pequena série de testes de funcionamento e experimentos realizados com a ferramenta ComFIRM, visando demonstrar a correção de seu funcionamento, o cumprimento de seus objetivos e também sua praticidade e flexibilidade de uso. São apresentadas as conclusões deste trabalho, propostas de melhorias à ferramenta apresentada, bem como possibilidades de trabalhos futuros.
Resumo:
Neste trabalho, fez-se uma avaliação da reatividade do carvão gaúcho da mina de Faxinal com 17% de cinzas, de dois carvões importados, bem como das misturas destes carvões em diferentes proporções mássicas. Além disso, quantificou-se outros parâmetros importantes para o processo de injeção do carvão pulverizado (PCI) na fabricação do gusa via alto-forno, como o teor de cinzas, teor de matéria volátil e composição química das cinzas. A reatividade foi avaliada em termos da reação de gaseificação com CO2, em termobalança, sob condições isotérmicas e pressão atmosférica. Os experimentos foram realizados na temperatura de 1050ºC com CO2 puro, utilizando amostras com granulometria menor que 75 mm. Avaliou-se o efeito da geometria do cadinho e vazão de gás sobre a taxa de reação para garantir uma situação de controle cinético na reação de gaseificação. Os resultados experimentais revelaram que o carvão de Faxinal possui uma reatividade muito maior frente ao CO2 do que os carvões importados. O tempo para que se complete a reação, parâmetro importantíssimo no processo do alto-forno que utiliza PCI, é muitíssimo menor para o carvão de Faxinal do que para os carvões importados. As misturas de carvões revelaram um comportamento aditivo quanto à reatividade e aos demais parâmetros estudados. Observou-se que quanto maior o teor de carvão gaúcho presente na mistura, maior sua reatividade e menor é o tempo gasto para atingir a taxa máxima de reação. Em função dos resultados de reatividade, teor de cinzas e composição química das cinzas obtidos, permitiu-se indicar uma mistura com até 50% de carvão de Faxinal para ser testada na injeção de carvão pulverizado.
Resumo:
Neste trabalho foram avaliados a morfologia e os comportamentos reológico, mecânico e viscoelástico de misturas de poliestireno (PS) com copolímeros em bloco de estireno-butadieno-estireno (SBS) com estruturas radial ou linear. Os elastômeros termoplásticos foram empregados como modificadores de impacto com o objetivo de tenacificar o poliestireno. Os polímeros puros foram caracterizados por cromatografia de permeação em gel e reometria rotacional. As misturas PS/SBS foram preparadas em extrusora de rosca simples em frações mássicas de 5, 10, 15 e 20% de SBS e analisadas por plastometria, reometria capilar, análises dinâmico-mecânicas e microscopia de transmissão. Os corpos de prova para avaliação das propriedades mecânicas das misturas, do PS e do HIPS foram moldados por injeção e os ensaios realizados foram de resistência à tração e resistência ao impacto. Todas as misturas PS/SBS apresentaram variação de viscosidade sob cisalhamento e algumas apresentaram comportamento e resistência ao impacto similares àquelas apresentadas pelas resinas de HIPS comercial. A morfologia das misturas PS/SBS diferentemente da observada no HIPS, não apresentou estrutura tipo salame com oclusões de PS em PB. Foram observadas partículas dispersas de PB em formas esférica e irregular distribuídas em uma matriz contínua. Isto é uma conseqüência da natureza química do polímero, do seu processamento, da composição e da razão de viscosidades entre os componentes.
Resumo:
Este trabalho apresenta a estruturação de um controle difuso, para a automação de reatores seqüenciais em batelada (RSB), no processo de remoção biológica de matéria orgânica e nitrogênio em águas residuárias domésticas, utilizando parâmetros inferenciais, pH, ORP e OD, em que as variáveis controladas foram as durações da reação aeróbia e anóxica. O experimento, em escala de bancada, foi composto por dois reatores seqüenciais em batelada, com volume útil de 10 L, no qual 6 L foram alimentados com esgoto sintético, com características de águas residuárias domésticas. O sistema de automação foi composto pela aquisição dos parâmetros eletroquímicos (pH, ORP e OD), pelos dispositivos atuadores (motor-bomba, aerador e misturador) e pelo controle predeterminado ou difuso. O programa computacional CONRSB foi implementado de forma a integrar o sistema de automação. O controle difuso, implementado, foi constituído pelos procedimentos de: normalização, nebulização, inferência, desnebulização e desnormalização. As variáveis de entrada para o controlador difuso, durante o período: aeróbio foram dpH/dt, dpH/d(t-1) e o pH ; anóxico foram dORP/dt, dORP/d(t-1) e o OD. As normalizações das variáveis crisps estiveram no universo de [0,1], utilizando os valores extremos do ciclo 1 ao 70. Nas nebulizações foram aplicadas as funções triangulares, as quais representaram, satisfatoriamente, as indeterminações dos parâmetros. A inferência nebulosa foi por meio da base heurística (regras), com amparo do especialista, em que a implicação de Mamdani foi aplicada Nessas implicações foram utilizadas dezoito expressões simbólicas para cada período, aeróbio e anóxico. O método de desnebulização foi pelo centro de áreas, que se mostrou eficaz em termos de tempo de processamento. Para a sintonia do controlador difuso empregou-se o programa computacional MATLAB, juntamente com as rotinas Fuzzy logic toolbox e o Simulink. O intervalo entre as atuações do controlador difuso, ficou estabelecido em 5,0 minutos, sendo obtido por meio de tentativas. A operação do RSB 1, durante os 85 ciclos, apresentou a relação média DBO/NTK de 4,67 mg DBO/mg N, sendo classificado como processo combinado de oxidação de carbono e nitrificação. A relação média alimento/microrganismo foi de 0,11 kg DBO/kg sólido suspenso volátil no licor misto.dia, enquadrando nos sistemas com aeração prolongada, em que a idade do lodo correspondeu aos 29 dias. O índice volumétrico do lodo médio foi de 117,5 mL/g, indicando uma sedimentação com características médias. As eficiências médias no processo de remoção de carbono e nitrogênio foram de 90,8% (como DQO) e 49,8%, respectivamente. As taxas específicas médias diárias, no processo de nitrificação e desnitrificação, foram de 24,2g N/kg SSVLM.dia e 15,5 g N/kg SSVLM.dia, respectivamente. O monitoramento, em tempo real, do pH, ORP e OD, mostrou ter um grande potencial no controle dos processos biológicos, em que o pH foi mais representativo no período aeróbio, sendo o ORP e o OD mais representativos no período anóxico. A operação do RSB com o controlador difuso, apresentou do ciclo 71 ao 85, as eficiências médias no processo de remoção de carbono e nitrogênio de 96,4% (como DQO) e 76,4%, respectivamente. A duração média do período aeróbio foi de 162,1 minutos, que tomando como referência o período máximo de 200,0 minutos, reduziu em 19,0% esses períodos. A duração média do período anóxico foi de 164,4 minutos, que tomando como referência o período máximo de 290,0 minutos, apresentou uma redução de 43,3%, mostrando a atuação robusta do controlador difuso. O estudo do perfil temporal, no ciclo 85, mostrou a atuação efetiva do controlador difuso, associada aos pontos de controle nos processos biológicos do RSB. Nesse ciclo, as taxas máximas específicas de nitrificação e desnitrificação observadas, foram de 32,7 g NO3 --N/kg sólido suspenso volátil no licor misto.dia e 43,2g NO3 --N/kg sólido suspenso volátil no licor misto.dia, respectivamente.
Resumo:
Uma etapa fundamental no desenvolvimento de sistemas tolerantes a falhas é a fase de validação, onde é verificado se o sistema está reagindo de maneira correta à ocorrência de falhas. Uma das técnicas usadas para validar experimentalmente um sistema é injeção de falhas. O recente uso de sistemas largamente distribuídos para execução dos mais diversos tipos de aplicações, faz com que novas técnicas para validação de mecanismos de tolerância a falhas sejam desenvolvidas considerando este novo cenário. Injeção de falhas no sistema de comunicação do nodo é uma técnica tradicional para a validação de aplicações distribuídas, para forçar a ativação dos mecanismos de detecção e recuperação de erros relacionados à troca de mensagens. A condução de experimentos com injetores de comunicação tradicionais é feita pelo uso do injetor em uma máquina do sistema distribuído. Se o cenário desejado é de múltiplas falhas, o injetor deve ser instanciado independentemente nas n máquinas que as falhas serão injetadas. O controle de cada injetor é individual, o que dificulta a realização do experimento. Esta dificuldade aumenta significativamente se o cenário for um sistema distribuído de larga escala. Outro problema a considerar é a ausência de ferramentas apropriadas para a emulação de determinados cenários de falhas. Em aplicações distribuídas de larga escala, um tipo comum de falha é o particionamento de rede. Não há ferramentas que permitam diretamente a validação ou a verificação do processo de defeito de aplicações distribuídas quando ocorre um particionamento de rede Este trabalho apresenta o estudo de uma abordagem para injeção de falhas que permita o teste de atributos de dependabilidade de aplicações distribuídas de pequena e larga escala implementadas em Java. A abordagem considera a não obrigatoriedade da alteração do código da aplicação sob teste; a emulação de um cenário de falhas múltiplas que ocorrem em diferentes nodos, permitindo o controle centralizado do experimento; a validação de aplicações que executem em sistemas distribuídos de larga escala e consideram um modelo de falhas realista deste tipo de ambiente, incluindo particionamentos de rede. A viabilidade da abordagem proposta é mostrada através do desenvolvimento do protótipo chamado FIONA (Fault Injector Oriented to Network Applications), o qual atualmente injeta falhas em aplicações desenvolvidas sob o protocolo UDP.