162 resultados para Jabuticaba - Processamento
Resumo:
Esta pesquisa visa a modelagem de clusters de computadores, utilizando um modelo analítico simples que é representado por um grafo valorado denominado grafo da arquitetura. Para ilustrar tal metodologia, exemplificou-se a modelagem do cluster Myrinet/SCI do Instituto de Informática da UFRGS, que é do tipo heterogêneo e multiprocessado. A pesquisa visa também o estudo de métodos e tecnologias de software para o particionamento de grafos de aplicações e seu respectivo mapeamento sobre grafos de arquiteturas. Encontrar boas partições de grafos pode contribuir com a redução da comunicação entre processadores em uma máquina paralela. Para tal, utilizou-se o grafo da aplicação HIDRA, um dos trabalhos do GMCPAD, que modela o transporte de substâncias no Lago Guaíba. Um fator importante é o crescente avanço da oferta de recursos de alto desempenho como os clusters de computadores. Os clusters podem ser homogêneos, quando possuem um arquitetura com nós de mesma característica como: velocidade de processamento, quantidade de memória RAM e possuem a mesma rede de interconexão interligando-os. Eles também podem ser heterogêneos, quando alguns dos componentes dos nós diferem em capacidade ou tecnologia. A tendência é de clusters homogêneos se tornarem em clusters heterogêneos, como conseqüência das expansões e atualizações. Efetuar um particionamento que distribua a carga em clusters heterogêneos de acordo com o poder computacional de cada nó não é uma tarefa fácil, pois nenhum processador deve ficar ocioso e, tampouco, outros devem ficar sobrecarregados Vários métodos de particionamento e mapeamento de grafos foram estudados e três ferramentas (Chaco, Jostle e o Scotch) foram testadas com a aplicação e com a arquitetura modeladas. Foram realizados, ainda, vários experimentos modificando parâmetros de entrada das ferramentas e os resultados foram analisados. Foram considerados melhores resultados aqueles que apresentaram o menor número de corte de arestas, uma vez que esse parâmetro pode representar a comunicação entre os processadores de uma máquina paralela, e executaram o particionamento/mapeamento no menor tempo. O software Chaco e o software Jostle foram eficientes no balanceamento de carga por gerarem partições com praticamente o mesmo tamanho, sendo os resultados adequados para arquiteturas homogêneas. O software Scotch foi o único que permitiu o mapeamento do grafo da aplicação sobre o grafo da arquitetura com fidelidade, destacando-se também por executar particionamento com melhor qualidade e pela execução dos experimentos em um tempo significativamente menor que as outras ferramentas pesquisadas.
Resumo:
Este trabalho teve como objetivo principal investigar o processo de imobilização do íon cromo, oriundo da cinza de incineração da serragem de couro curtido ao cromo (CSC), em corpos cerâmicos vitrificados. Para tanto, foram desenvolvidas formulações com adição de vidro sodocálcico a CSC, que foram submetidas a diferentes temperaturas de queima. Para o aprofundamento da investigação dos fenômenos atuantes no processo de imobilização do íon cromo, foram formuladas massas cerâmicas com a adição de óxidos puros de Na2O, TiO2, MgO e CaO, à composição CSC e vidro sodo-cálcido. As massas cerâmicas foram conformadas por prensagem uni-axial de duplo efeito e queimadas em forno elétrico tipo mufla, nas temperaturas de 750, 800, 950 e 1000ºC. Posteriormente, foram caracterizadas quanto às propriedades físicas e composição mineralógica, bem como, avaliadas quanto à imobilização do cromo através de ensaios de lixiviação, segundo a Norma NBR 10.005. O controle de fases formadas resultante do processamento cerâmico foi investigado com o auxílio de difração de raios X e mapeamento por microssonda EDS. Os resultados obtidos indicam que é possível obter a imobilização do íon cromo da CSC, de acordo com o limite máximo estabelecido pela NBR 10.004 (5mg/L), utilizando vidro e agentes de vitrificação/densificação, como o óxido de titânio e óxido de magnésio. Quanto mais elevada a temperatura de queima, mais efetiva foi a imobilização de cromo nos corpos cerâmicos investigados. O aumento da temperatura de queima diminui a porosidade aberta, via formação de fase vítrea, levando desse modo a uma diminuição da lixiviação do cromo. No entanto, a adição somente de vidro a CSC aumentou a lixiviação do cromo dos corpos cerâmicos, embora sempre menor para temperaturas de queima crescentes. Deve-se isso, ao aumento de fases lixiviáveis, como cromatos de sódio, a partir da reação do sódio, do vidro sodo-cálcico e do cromo da CSC. Os corpos cerâmicos que apresentaram a fase cromato de sódio, apresentaram deficiente imobilização do íon cromo, em todas as formulações investigadas.
Resumo:
A descoberta e a análise de conglomerados textuais são processos muito importantes para a estruturação, organização e a recuperação de informações, assim como para a descoberta de conhecimento. Isto porque o ser humano coleta e armazena uma quantidade muito grande de dados textuais, que necessitam ser vasculhados, estudados, conhecidos e organizados de forma a fornecerem informações que lhe dêem o conhecimento para a execução de uma tarefa que exija a tomada de uma decisão. É justamente nesse ponto que os processos de descoberta e de análise de conglomerados (clustering) se insere, pois eles auxiliam na exploração e análise dos dados, permitindo conhecer melhor seu conteúdo e inter-relações. No entanto, esse processo, por ser aplicado em textos, está sujeito a sofrer interferências decorrentes de problemas da própria linguagem e do vocabulário utilizado nos mesmos, tais como erros ortográficos, sinonímia, homonímia, variações morfológicas e similares. Esta Tese apresenta uma solução para minimizar esses problemas, que consiste na utilização de “conceitos” (estruturas capazes de representar objetos e idéias presentes nos textos) na modelagem do conteúdo dos documentos. Para tanto, são apresentados os conceitos e as áreas relacionadas com o tema, os trabalhos correlatos (revisão bibliográfica), a metodologia proposta e alguns experimentos que permitem desenvolver determinados argumentos e comprovar algumas hipóteses sobre a proposta. As conclusões principais desta Tese indicam que a técnica de conceitos possui diversas vantagens, dentre elas a utilização de uma quantidade muito menor, porém mais representativa, de descritores para os documentos, o que torna o tempo e a complexidade do seu processamento muito menor, permitindo que uma quantidade muito maior deles seja analisada. Outra vantagem está no fato de o poder de expressão de conceitos permitir que os usuários analisem os aglomerados resultantes muito mais facilmente e compreendam melhor seu conteúdo e forma. Além do método e da metodologia proposta, esta Tese possui diversas contribuições, entre elas vários trabalhos e artigos desenvolvidos em parceria com outros pesquisadores e colegas.
Resumo:
Neste trabalho foram avaliados a morfologia e os comportamentos reológico, mecânico e viscoelástico de misturas de poliestireno (PS) com copolímeros em bloco de estireno-butadieno-estireno (SBS) com estruturas radial ou linear. Os elastômeros termoplásticos foram empregados como modificadores de impacto com o objetivo de tenacificar o poliestireno. Os polímeros puros foram caracterizados por cromatografia de permeação em gel e reometria rotacional. As misturas PS/SBS foram preparadas em extrusora de rosca simples em frações mássicas de 5, 10, 15 e 20% de SBS e analisadas por plastometria, reometria capilar, análises dinâmico-mecânicas e microscopia de transmissão. Os corpos de prova para avaliação das propriedades mecânicas das misturas, do PS e do HIPS foram moldados por injeção e os ensaios realizados foram de resistência à tração e resistência ao impacto. Todas as misturas PS/SBS apresentaram variação de viscosidade sob cisalhamento e algumas apresentaram comportamento e resistência ao impacto similares àquelas apresentadas pelas resinas de HIPS comercial. A morfologia das misturas PS/SBS diferentemente da observada no HIPS, não apresentou estrutura tipo salame com oclusões de PS em PB. Foram observadas partículas dispersas de PB em formas esférica e irregular distribuídas em uma matriz contínua. Isto é uma conseqüência da natureza química do polímero, do seu processamento, da composição e da razão de viscosidades entre os componentes.
Resumo:
Neste início de década, observa-se a transformação das áreas de Computação em Grade (Grid Computing) e Computação Móvel (Mobile Computing) de uma conotação de interesse emergente para outra caracterizada por uma demanda real e qualificada de produtos, serviços e pesquisas. Esta tese tem como pressuposto a identificação de que os problemas hoje abordados isoladamente nas pesquisas relativas às computações em grade, consciente do contexto e móvel, estão presentes quando da disponibilização de uma infra-estrutura de software para o cenário da Computação Pervasiva. Neste sentido, como aspecto central da sua contribuição, propõe uma solução integrada para suporte à Computação Pervasiva, implementada na forma de um middleware que visa criar e gerenciar um ambiente pervasivo, bem como promover a execução, sob este ambiente, das aplicações que expressam a semântica siga-me. Estas aplicações são, por natureza, distribuídas, móveis e adaptativas ao contexto em que seu processamento ocorre, estando disponíveis a partir de qualquer lugar, todo o tempo. O middleware proposto, denominado EXEHDA (Execution Environment for Highly Distributed Applications), é adaptativo ao contexto e baseado em serviços, sendo chamado de ISAMpe o ambiente por este disponibilizado. O EXEHDA faz parte dos esforços de pesquisa do Projeto ISAM (Infra-Estrutura de Suporte às Aplicações Móveis Distribuídas), em andamento na UFRGS. Para atender a elevada flutuação na disponibilidade dos recursos, inerente à Computação Pervasiva, o EXEHDA é estruturado em um núcleo mínimo e em serviços carregados sob demanda. Os principais serviços fornecidos estão organizados em subsistemas que gerenciam: (a) a execução distribuída; (b) a comunicação; (c) o reconhecimento do contexto; (d) a adaptação; (e) o acesso pervasivo aos recursos e serviços; (f) a descoberta e (g) o gerenciamento de recursos No EXEHDA, as condições de contexto são pró-ativamente monitoradas e o suporte à execução deve permitir que tanto a aplicação como ele próprio utilizem essas informações na gerência da adaptação de seus aspectos funcionais e não-funcionais. O mecanismo de adaptação proposto para o EXEHDA emprega uma estratégia colaborativa entre aplicação e ambiente de execução, através da qual é facultado ao programador individualizar políticas de adaptação para reger o comportamento de cada um dos componentes que constituem o software da aplicação. Aplicações tanto do domínio da Computação em Grade, quanto da Computação Pervasiva podem ser programadas e executadas sob gerenciamento do middleware proposto.
Resumo:
As árvores de decisão são um meio eficiente para produzir classificadores a partir de bases de dados, sendo largamente utilizadas devido à sua eficiência em relação ao tempo de processamento e por fornecer um meio intuitivo de analisar os resultados obtidos, apresentando uma forma de representação simbólica simples e normalmente compreensível, o que facilita a análise do problema em questão. Este trabalho tem, por finalidade, apresentar um estudo sobre o processo de descoberta de conhecimento em um banco de dados relacionado à área da saúde, contemplando todas as etapas do processo, com destaque à de mineração de dados, dentro da qual são aplicados classificadores baseados em árvores de decisão. Neste estudo, o conhecimento é obtido mediante a construção de árvores de decisão a partir de dados relacionados a um problema real: o controle e a análise das Autorizações de Internações Hospitalares (AIHs) emitidas pelos hospitais da cidade de Pelotas, conveniados ao Sistema Único de Saúde (SUS). Buscou-se encontrar conhecimentos que auxiliassem a Secretaria Municipal da Saúde de Pelotas (SMSP) na análise das AIHs, realizada manualmente, detectando situações que fogem aos padrões permitidos pelo SUS. Finalmente, os conhecimentos obtidos são avaliados e validados, possibilitando verificar a aplicabilidade das árvores no domínio em questão.
Resumo:
As proteínas vegetais vêm sendo largamente utilizadas na indústria alimentícia como substitutas da proteína animal, além de agir como um ingrediente funcional nos mais variados produtos. Dentre as proteínas mais utilizadas encontra-se a proteína texturizada de soja. Seu processamento envolve uma etapa de secagem que é uma das operações unitárias mais relevantes e desafiadoras para a indústria alimentícia. Neste trabalho, determinaram-se as curvas de secagem de três diferentes tipos de proteína texturizada de soja (PTS), através de diferentes experimentos, variando-se a temperatura do ar de secagem (T) – 90, 110 e 130°C – a velocidade do ar de secagem (v) – 100, 125 e 150 cm.s-1 – e a altura da camada de produto (h) – 3 e 6 cm para a PTS Tipo I, 2,5 e 5 cm para a PTS Tipo II e 5 e 10 cm para a PTS Tipo III. A partir dos dados experimentais obtidos de teor de umidade em função do tempo, fez-se o ajuste a um modelo exponencial de duas constantes. Todas as combinações de parâmetros apresentaram ajustes de boa qualidade, cujos coeficientes de correlação foram superiores a 0,99. Uma das constantes obtidas (C1) apresentou valores muito próximos à unidade para todos os casos (e para os três tipos de PTS), enquanto que a outra constante (C2) apresentou valores variáveis. Realizouse, então, uma análise estatística (Teste F), a fim de verificar quais dos parâmetros estudados (bem como seus efeitos de interação) eram significativos para a determinação da constante C2 do modelo exponencial. Para as PTS tipos I e II, a um nível de 95% de significância, todos os parâmetros e efeitos de interação apresentaram-se significativos para a determinação de C2 e desenvolveu-se, então, um modelo estatístico de dez constantes em função destes Obteve-se um ótimo ajuste dos dados de C2 em função dos parâmetros aos modelos testados, atingindo-se valores de erro médio relativo (EMR) sempre inferiores a 10% e coeficientes de correlação elevados. Para a PTS Tipo III apenas dois dos parâmetros testados, somados a dois efeitos de interação, mostraram-se significativos. Apesar disso, foram obtidos os melhores ajustes através, novamente, do modelo de 10 constantes. Assim, para os três tipos de PTS, foi possível a obtenção de um modelo que prevê o tempo de processo de cada tipo de PTS, para que se atinja uma determinada umidade final, ou vice-versa, em função da umidade inicial da amostra, de sua umidade de equilíbrio e dos parâmetros de processo (T, v e h). Paralelamente, determinaram-se as isotermas de sorção de dois tipos de PTS (um contendo cerca de 20% de açúcares e outro não contendo açúcares) para quatro temperaturas (10, 20, 30 e 40°C). Para o ajuste dos dados experimentais foram utilizados os modelos de Oswin, Halsey, BET, GAB, Peleg e Darcy-Watt. Os modelos de Peleg e GAB foram os que melhor se ajustaram aos dados experimentais, embora outros modelos como Halsey e Oswin também se mostraram representativos para temperaturas mais elevadas. As isotermas de sorção da PTS que continha açúcar apresentaram uma inversão de comportamento em uma atividade de água em torno de 0,9, enquanto que as curvas obtidas para a outra PTS não se cruzaram em nenhum momento. O calor de sorção foi estimado, pela equação de Clausius-Clapeyron, para ambos os tipos de PTS e este aumentou com a diminuição de umidade. Estimaram-se valores de umidade de monocamada, através do ajuste dos dados ao modelo de GAB, entre 4,6 e 7,4% para a PTS Tipo I e entre 4,4 e 5,4% para a PTS Tipo IV; os valores de umidade de monocamada diminuíram com o aumento de temperatura.
Resumo:
Este trabalho de conclusão tem como tema a relação entre as especificações de resinas alquídicas e de tintas preparadas com estas resinas, com foco nas características de teor de sólidos e viscosidade, fazendo uso das técnicas projeto de experimentos, superfície de resposta e análise de regressão. O objetivo principal é o estudo dos limites de especificação ideais para a resina alquídica, de forma que os lotes de tinta apresentem propriedades dentro da especificação já ao final do processamento, reduzindo a incidência de lotes fabris com necessidade de ajuste. Como conseqüência, temos redução de retrabalho e lead time fabril, adequação de custo de produtos, maior qualidade intrínseca e maior confiança na sistemática de desenvolvimento, produção e controle de qualidade. Inicialmente, foi realizada uma revisão bibliográfica sobre a tecnologia de tintas e resinas alquídicas, conceitos de controle de qualidade, planejamento de experimentos, análise por superfície de resposta e análise de regressão. Na seqüência, foi conduzido o estudo de caso, realizado na empresa Killing S.A. Tintas e Adesivos, planta localizada na cidade de Novo Hamburgo. Os resultados experimentais indicaram modelos de regressão polinomial válidos para as propriedades avaliadas. Foram tomadas as propriedades teor de sólidos e viscosidade Copo Ford #2 da mistura A+B como parâmetros para análise dos limites de especificação da resina alquídica, onde se comprovou que a variabilidade atualmente permitida é excessiva. A aplicação dos modelos de regressão indicou novos limites de especificação para a resina alquídica, mais estreitos, viabilizando a obtenção de tintas com propriedades especificadas.
Resumo:
Objetivo: Avaliar a correlação do volume de pulmão com densidade anormal através da Densitovolumetria (DV) com características clínicas e testes de função pulmonar em crianças com Bronquiolite Obliterante (BO). Métodos: Realizou-se um estudo transversal em 19 crianças, com idade entre 7 e 15 anos, com diagnóstico clínico-evolutivo e tomografia de tórax característicos de BO. Foram excluídas ou-tras doenças que cursam com obstrução ao fluxo aéreo. Todas as crianças fizeram o Teste da cami-nhada de seis minutos com monitorização da saturação de oxigênio da hemoglobina. A espirometria foi feita em repouso, após o Teste da caminhada e após a administração de broncodilatador. A Den-sitovolumetria foi realizada em um tomógrafo computadorizado helicoidal de pista simples, marca Toshiba, modelo Xvision EX, com pós-processamento de imagem em estação de trabalho O2 da Si-licon Graphics, com programa de computação Alatoview®. Cada paciente foi submetido a 9 aquisi-ções tomográficas eqüidistantes de alta resolução e a duas varreduras helicoidais, cobrindo toda a extensão do tórax em pausa da respiração no final da inspiração e expiração profundas. Para separar parênquima normal de parênquima com diminuição de atenuação utilizou-se o limiar -950 UH e um outro limiar escolhido de forma subjetiva pelo radiologista Resultados: O volume de parênquima pulmonar com densidade anormalmente baixa na inspiração variou de 0,03 a 8,67 % e, na expiração, de zero a 7,27% do volume pulmonar total. O volume de pulmão hipoatenuado teve boa correlação com os testes de função pulmonar; na inspiração com VEF1% (r= -0,56) e com VEF1/CVF%(r= -0,75). O percentual de zonas hipoatenuadas na inspiração apresentou correlação com VEF1%(r= -0,64) e com VEF1/CVF%(r= -0,71). Na expiração, houve correlação com VEF1% (r= -0,50) e não houve com o VEF1/CVF%. Na comparação com o previsto em adultos, a correlação foi melhor na inspiração. A saturação de oxigênio em repouso não apresentou associação com o volume de áreas hipoatenuadas, enquanto que a saturação mínima durante o exercício apresentou correlação negativa forte com o volume de zonas com hipoatenuação na inspiração (r= -0,60) e na expiração (r= -0,61). Os pacientes com volumes pulmonares maiores percorreram uma distância maior (r=0,53), e a distância percorrida não foi afetada significativamente pelo volume de áreas hipoatenuadas. Conclusão: Em crianças com BO, o volume de zonas hipoatenuadas correlaciona-se com o VEF1% e VEF1/CVF% e com a queda na saturação durante o exercício, mas não se correlaciona com a saturação em repouso e a distância percorrida.
Resumo:
Vários métodos analíticos, numéricos e híbridos podem ser utilizados na solução de problemas de difusão e difusão-advecção. O objetivo deste trabalho é apresentar dois métodos analíticos para obtenção de soluções em forma fechada da equação advectivo-difusiva em coordenadas cartesianas que descreve problemas de dispersão de poluentes na água e na atmosfera. Um deles é baseado em regras de manipulação de exponenciais de operadores diferenciais, e o outro consiste na aplicação de simetrias de Lie admitidas por uma equação diferencial parcial linear. Desenvolvem-se regras para manipulação de exponenciais de operadores diferenciais de segunda ordem com coeficientes constantes e para operadores advectivo-difusivos. Nos casos em que essas regras não podem ser aplicadas utiliza-se uma formulação para a obtenção de simetrias de Lie, admitidas por uma equação diferencial, via mapeamento. Define-se um operador diferencial com a propriedade de transformar soluções analíticas de uma dada equação diferencial em novas soluções analíticas da mesma equação. Nas aplicações referentes à dispersão de poluentes na água, resolve-se a equação advectivo-difusiva bidimensional com coeficientes variáveis, realizando uma mudança de variáveis de modo a reescrevê-la em termos do potencial velocidade e da função corrente correspondentes ao respectivo escoamento potencial, estendendo a solução para domínios de contornos arbitrários Na aplicação referente ao problema de dispersão de poluentes na atmosfera, realiza-se uma mudança de variáveis de modo a obter uma equação diferencial parcial com coeficientes constantes na qual se possam aplicar as regras de manipulação de exponenciais de operadores diferenciais. Os resultados numéricos obtidos são comparados com dados disponíveis na literatura. Diversas vantagens da aplicação das formulações apresentadas podem ser citadas, a saber, o aumento da velocidade de processamento, permitindo a obtenção de solução em tempo real; a redução da quantidade de memória requerida na realização de operações necessárias para a obtenção da solução analítica; a possibilidade de dispensar a discretização do domínio em algumas situações.
Resumo:
Apesar da visível importância da medição de desempenho, o seu uso por parte da maioria das empresas da construção ainda não constitui uma prática sistemática. De uma forma geral, não existe uma estrutura adequada para coleta e processamento dos dados, sendo, no caso das pequenas empresas, agravada pela falta de pessoas para realizar estas tarefas. Além disto, muitas empresas têm dificuldade em transformar os dados coletados em informação útil para a tomada de decisões. O objetivo principal deste trabalho é propor diretrizes para concepção e implementação de sistemas de indicadores de desempenho para empresas construtoras que atuam no segmento de empreendimentos habitacionais de baixa renda. Este trabalho está limitado a analisar empreendimentos que pertencem aos modos de provisão habitacional do Programa de Arrendamento Residencial (PAR) e Imóvel na Planta, ambos gerenciados pela Caixa Econômica Federal. A pesquisa é constituída pelas seguintes etapas: (a) revisão bibliográfica; (b) discussão dos modos de provisão PAR e Imóvel na Planta, com o objetivo de identificar os critérios competitivos que as empresas devem priorizar para participarem neste segmento de mercado; (c) realização de um Clube de Benchmarking envolvendo dezoito empresas de construção; (d) proposta inicial de indicadores para empresas que atuam em cada um dos modos de provisão habitacional; (e) realização de dois estudos de caso nos quais foram concebidos e implementados os sistemas de medição de desempenho em duas empresas; (f) análise cruzada dos estudos de caso. As principais contribuições da pesquisa estão relacionadas a: (a) diretrizes para concepção e implementação de sistemas de indicadores em empresas construtoras que atuam no segmento de baixa renda; e (b) identificação de fatores facilitadores e barreiras à implementação dos indicadores nas empresas.
Resumo:
O presente trabalho tem como tema a qualidade de produtos e serviços bancários, sob a perspectiva dos clientes, e visa a identificar o grau de importância e o nível de satisfação com a qualidade dos produtos e serviços oferecidos pelo Banco do Brasil S/A aos clientes da "Carteira Empresas" da agência de Canela - RS. A avaliação do nível de satisfação e do grau de importância da qualidade dos produtos e serviços oferecidos aos clientes da "Carteira Empresas" do Banco do Brasil S/A tem sido realizada como um "exercício de imaginação" ou de feeling dos gerentes de agências. Com o presente trabalho, busca-se o emprego de método de pesquisa para a realização de tal avaliação. Para tanto, é realizada pesquisa bibliográfica sobre serviços, qualidade em serviços, satisfação dos clientes, valor do cliente, estratégia da lealdade CRM - Customer Relationship Management, gestão do relacionamento com os clientes, recuperação do serviço e pesquisa de marketing. Através de pesquisa qualitativa, são levantados os atributos da qualidade demandada dos produtos e serviços oferecidos. Logo após, é realizada pesquisa quantitativa na qual são identificados o grau de importância e o nível de satisfação atribuídos pelos clientes aos atributos da qualidade demandada levantados pela referida pesquisa. Para processamento e análise dos resultados são utilizadas técnicas estatistícas como método de análise descritiva, de análise de variância, de análise de regressão e o teste de confiabilidade do instrumento de pesquisa. Com base nos resultados encontrados é desenvolvido e apresentado, também um plano de melhorias.
Resumo:
A recuperação por retorno baseada em checkpointing é largamente usada como técnica de tolerância a falhas. O modelo complexo de sistemas distribuídos tem motivado o desenvolvimento de diversos algoritmos na tentativa de encontrar soluções mais simples e eficientes. Os processos que formam o sistema distribuído podem coordenar suas operações para garantir que o conjunto de checkpoints locais componha um estado global consistente (linha de recuperação). A partir desse estado, no caso de ocorrência de falhas, o sistema pode ser recuperado e a computação retomada a partir de um momento anterior ao da manifestação da falha, evitando o retrocesso para o estado inicial da computação e prevenindo a ocorrência de prejuízos com a perda de todo processamento até então realizado. No Grupo de Tolerância a Falhas da UFRGS foi proposto recentemente um algoritmo que é voltado para aplicações que executam em sistemas distribuídos assíncronos que se comunicam exclusivamente pela troca de mensagens. Ele opera com salvamento coordenado de checkpoints (não bloqueando as aplicações) e prevê o tratamento de mensagens órfãs e perdidas. Os mecanismos do algoritmo sugerem que nenhuma alteração deveria ser realizada no código das aplicações, criando a possibilidade de implementação transparente sob o ponto de vista dos usuários e dos programadores das aplicações. Como o algoritmo não requer o bloqueio das aplicações, a sobrecarga imposta pelos mecanismos à execução livre de falhas é pequena. Além disso, o processo de recuperação tende a ser efetuado rapidamente, uma vez que é garantida a existência de uma linha de recuperação consistente, facilmente identificada Este trabalho apresenta as decisões de projeto, a implementação, os resultados e a avaliação de desempenho desse algoritmo. A avaliação das alternativas de implementação resultou na decisão de uma implementação então realizada diretamente sobre o sistema operacional Linux, sem recorrer a protocolos auxiliares para garantir a execução dos serviços e sem a necessidade de adaptações no código das aplicações nem no código do sistema operacional. Adicionalmente, os resultados comprovaram a expectativa inicial de que o algoritmo causaria pouca sobrecarga no sistema (menos de 2%), embora ele ainda apresente alta dependência do tamanho dos checkpoints salvos.
Resumo:
O setor do couro é de grande interesse para a economia do País, pois a produção mundial de couros é de 329,75 milhões e a do Brasil é de 35,50 milhões, com uma participação mundial de 10,77%, da qual grande parte é para exportação. O processamento de peles em couro consiste em diversas etapas, com adições seqüenciais de produtos químicos em meio aquoso, intercaladas por lavagens e processos mecânicos. Sabe-se que os mais diversos impactos ambientais são gerados nesta indústria, tornando o presente trabalho importante por analisar quantidades adicionadas de água, pele e insumos químicos, também por avaliar a produção, e respectivas quantidades geradas de couro, de resíduos sólidos, de efluentes líquidos, assim como de suas concentrações. Este trabalho teve por objetivo a caracterização das peles e dos banhos residuais, de ribeira e curtimento, através de análises químicas, para efetuar o balanço de massa destas operações. Para a realização desse balanço, foram definidos critérios para o monitoramento dos processos e foram estabelecidos e/ou adaptados os métodos analíticos adequados para quantificar as correntes de entrada e as concentrações das correntes de saída, através de amostragens de águas residuais e de peles, em cada etapa dos processos de ribeira e de curtimento. Foi feito o balanço global e por componentes em escalas piloto e industrial. Através da caracterização das peles por meio das análises químicas, foi mostrado que o processo piloto é representativo para o processo industrial A pesquisa demonstrou a importância do balanço de massa, pois somente através da análise do aproveitamento e das perdas nas diferentes etapas de transformação da matéria-prima pele em wet-blue, é possível otimizar a relação entre os materiais empregados no processo. Os dados obtidos podem ser utilizados como ferramenta para a implementação da gestão e gerenciamento de melhorias no processo produtivo em curtumes, onde se busca manter a qualidade do produto final e diminuir o impacto ambiental e econômico.
Resumo:
Este trabalho apresenta a estruturação de um controle difuso, para a automação de reatores seqüenciais em batelada (RSB), no processo de remoção biológica de matéria orgânica e nitrogênio em águas residuárias domésticas, utilizando parâmetros inferenciais, pH, ORP e OD, em que as variáveis controladas foram as durações da reação aeróbia e anóxica. O experimento, em escala de bancada, foi composto por dois reatores seqüenciais em batelada, com volume útil de 10 L, no qual 6 L foram alimentados com esgoto sintético, com características de águas residuárias domésticas. O sistema de automação foi composto pela aquisição dos parâmetros eletroquímicos (pH, ORP e OD), pelos dispositivos atuadores (motor-bomba, aerador e misturador) e pelo controle predeterminado ou difuso. O programa computacional CONRSB foi implementado de forma a integrar o sistema de automação. O controle difuso, implementado, foi constituído pelos procedimentos de: normalização, nebulização, inferência, desnebulização e desnormalização. As variáveis de entrada para o controlador difuso, durante o período: aeróbio foram dpH/dt, dpH/d(t-1) e o pH ; anóxico foram dORP/dt, dORP/d(t-1) e o OD. As normalizações das variáveis crisps estiveram no universo de [0,1], utilizando os valores extremos do ciclo 1 ao 70. Nas nebulizações foram aplicadas as funções triangulares, as quais representaram, satisfatoriamente, as indeterminações dos parâmetros. A inferência nebulosa foi por meio da base heurística (regras), com amparo do especialista, em que a implicação de Mamdani foi aplicada Nessas implicações foram utilizadas dezoito expressões simbólicas para cada período, aeróbio e anóxico. O método de desnebulização foi pelo centro de áreas, que se mostrou eficaz em termos de tempo de processamento. Para a sintonia do controlador difuso empregou-se o programa computacional MATLAB, juntamente com as rotinas Fuzzy logic toolbox e o Simulink. O intervalo entre as atuações do controlador difuso, ficou estabelecido em 5,0 minutos, sendo obtido por meio de tentativas. A operação do RSB 1, durante os 85 ciclos, apresentou a relação média DBO/NTK de 4,67 mg DBO/mg N, sendo classificado como processo combinado de oxidação de carbono e nitrificação. A relação média alimento/microrganismo foi de 0,11 kg DBO/kg sólido suspenso volátil no licor misto.dia, enquadrando nos sistemas com aeração prolongada, em que a idade do lodo correspondeu aos 29 dias. O índice volumétrico do lodo médio foi de 117,5 mL/g, indicando uma sedimentação com características médias. As eficiências médias no processo de remoção de carbono e nitrogênio foram de 90,8% (como DQO) e 49,8%, respectivamente. As taxas específicas médias diárias, no processo de nitrificação e desnitrificação, foram de 24,2g N/kg SSVLM.dia e 15,5 g N/kg SSVLM.dia, respectivamente. O monitoramento, em tempo real, do pH, ORP e OD, mostrou ter um grande potencial no controle dos processos biológicos, em que o pH foi mais representativo no período aeróbio, sendo o ORP e o OD mais representativos no período anóxico. A operação do RSB com o controlador difuso, apresentou do ciclo 71 ao 85, as eficiências médias no processo de remoção de carbono e nitrogênio de 96,4% (como DQO) e 76,4%, respectivamente. A duração média do período aeróbio foi de 162,1 minutos, que tomando como referência o período máximo de 200,0 minutos, reduziu em 19,0% esses períodos. A duração média do período anóxico foi de 164,4 minutos, que tomando como referência o período máximo de 290,0 minutos, apresentou uma redução de 43,3%, mostrando a atuação robusta do controlador difuso. O estudo do perfil temporal, no ciclo 85, mostrou a atuação efetiva do controlador difuso, associada aos pontos de controle nos processos biológicos do RSB. Nesse ciclo, as taxas máximas específicas de nitrificação e desnitrificação observadas, foram de 32,7 g NO3 --N/kg sólido suspenso volátil no licor misto.dia e 43,2g NO3 --N/kg sólido suspenso volátil no licor misto.dia, respectivamente.