1000 resultados para Processamento do pedido de recuperação
Resumo:
O uso da recuperação de processos para obter sistemas computacionais tolerantes a falhas não é um assunto novo. Entretanto, a discussão de algoritmos para a recuperação em sistemas distribuídos, notadamente aqueles que se enquadram na categoria assíncrona, ainda encontra pontos em aberto. Este é o contexto do presente trabalho. Este trabalho apresenta um novo algoritmo de recuperação por retorno, em sistemas distribuídos. O algoritmo proposto é do tipo coordenado, e seus mecanismos componentes determinam que seja classificado como um algoritmo baseado em índices (index-based coordinated). Desta forma, a tolerância a falhas é obtida através do estabelecimento de linhas de recuperação, o que possibilita um retorno consideravelmente rápido, em caso de falha. Seu desenvolvimento foi feito com o objetivo de minimizar o impacto ao desempenho do sistema, tanto quando este estiver operando livre de falhas como quando ocorrerem as falhas. Além disso, os mecanismos componentes do algoritmo foram escolhidos visando facilitar a futura tarefa de implementação. A satisfação dos objetivos decorre principalmente de uma importante característica assegurada pelos mecanismos propostos no algoritmo: o não bloqueio da aplicação, enquanto é estabelecida uma nova linha de recuperação. Esta característica, associada ao rápido retorno, oferece uma solução promissora, em termos de eficiência, para a recuperação, um vez que o impacto no desempenho tende a ser reduzido, quando o sistema encontra-se operando em ambas condições: livre de erros ou sob falha. Diferentemente da maioria dos algoritmos coordenados encontrados na literatura, o algoritmo proposto neste trabalho trata as mensagens perdidas. A partir da análise das características das aplicações, bem como dos canais de comunicação, quando estes interagem com o algoritmo de recuperação, concluiu-se que os procedimentos usados para recuperação de processos devem prever o tratamento desta categoria de mensagens. Assim, o algoritmo proposto foi incrementado com um mecanismo para tratamento das mensagens que têm o potencial de tornarem-se perdidas, em caso de retorno, ou seja, evita a existência de mensagens perdidas. Uma das decisões tomadas durante o desenvolvimento do algoritmo foi a de permitir um processamento não determinístico. Na realidade, esta escolha visou o aumento do espectro das falhas que poderiam ser tratadas pela recuperação. Tradicionalmente, a recuperação por retorno é empregada para tolerar falhas temporárias. Entretanto, a diversidade de ambiente, freqüente nos SDs, também pode ser usada para tolerar algumas falhas permanentes. Para verificar a correção do algoritmo, decidiu-se empregar um formalismo existente. Assim, a lógica temporal de Lamport (TLA) foi usada na especificação dos mecanismos do algoritmo bem como em sua demonstração de correção. O tratamento referente às mensagens perdidas, atrav´es do uso de mensagens de resposta, associado com o uso de uma lógica temporal, levou à necessidade de rever os critérios de consistência. Esta revisão gerou um conjunto de fórmulas de consistência ajustadas à existência de mensagens de diferentes classes: mensagens da aplicação e mensagens de resposta.
Resumo:
O grande desenvolvimento da industria eletrônica, aliado ao aumento do consumo de bens pela população, gera um número cada vez maior de equipamentos defeituosos e obsoletos, entre eles as Placas de Circuito Impresso (PCI), as quais precisam ser dispostas. A sucata destas placas representa uma matéria prima interessante, pois contém metais e ligas metálicas, o que torna sua reciclagem bastante atraente. Como linha geral, as PCI possuem 49% de materiais cerâmicos, vidros e óxidos, 19% de plásticos, 4% de bromo e 28% de metais. A composição real depende da origem do circuito impresso, assim como do tipo e idade do equipamento. O uso do Processamento Mecânico na reciclagem desse resíduo é uma alternativa na recuperação dos metais presentes e também uma maneira de separar seus vários componentes, permitindo assim dispor adequadamente este resíduo. Neste trabalho as PCI passaram por várias etapas de processamento mecânico. Primeiramente foram moídas abaixo de 1mm e após foram classificadas, caracterizadas e diferentes frações foram separadas por densidade. A primeira classificação foi feita por granulometria e gerou três frações diferentes: uma menor que 0,25mm, outra entre 0,25 e 0,50mm e outra entre 0,50 e 1,0mm. Após foi feita uma separação por densidade obtendo-se uma fração rica em metais, em especial o cobre, e outra fração leve composta por polímeros e cerâmicos As frações classificadas por granulometria e as frações leves originadas da separação por densidade foram lixiviadas para caracterizar o resíduo a respeito da sua toxicidade antes e depois do processo. O uso do processamento mecânico mostrou-se muito eficiente na recuperação dos metais, pois foi possível recuperar cerca de 80% dos metais presentes, com destaque para o cobre, que representa quase 75% da fração metálica. Através da lixiviação foi determinado que as PCI deveriam ser classificadas como resíduos perigosos, pois apresentam uma concentração de chumbo bem acima do permitido. Após a separação por densidade foi feito novamente ensaio de lixiviação e embora a concentração de Chumbo na fração leve tenha diminuido significativamente ela ainda permaneceu acima dos limites estabelecidos pelas normas brasileiras.
Resumo:
A recuperação por retorno baseada em checkpointing é largamente usada como técnica de tolerância a falhas. O modelo complexo de sistemas distribuídos tem motivado o desenvolvimento de diversos algoritmos na tentativa de encontrar soluções mais simples e eficientes. Os processos que formam o sistema distribuído podem coordenar suas operações para garantir que o conjunto de checkpoints locais componha um estado global consistente (linha de recuperação). A partir desse estado, no caso de ocorrência de falhas, o sistema pode ser recuperado e a computação retomada a partir de um momento anterior ao da manifestação da falha, evitando o retrocesso para o estado inicial da computação e prevenindo a ocorrência de prejuízos com a perda de todo processamento até então realizado. No Grupo de Tolerância a Falhas da UFRGS foi proposto recentemente um algoritmo que é voltado para aplicações que executam em sistemas distribuídos assíncronos que se comunicam exclusivamente pela troca de mensagens. Ele opera com salvamento coordenado de checkpoints (não bloqueando as aplicações) e prevê o tratamento de mensagens órfãs e perdidas. Os mecanismos do algoritmo sugerem que nenhuma alteração deveria ser realizada no código das aplicações, criando a possibilidade de implementação transparente sob o ponto de vista dos usuários e dos programadores das aplicações. Como o algoritmo não requer o bloqueio das aplicações, a sobrecarga imposta pelos mecanismos à execução livre de falhas é pequena. Além disso, o processo de recuperação tende a ser efetuado rapidamente, uma vez que é garantida a existência de uma linha de recuperação consistente, facilmente identificada Este trabalho apresenta as decisões de projeto, a implementação, os resultados e a avaliação de desempenho desse algoritmo. A avaliação das alternativas de implementação resultou na decisão de uma implementação então realizada diretamente sobre o sistema operacional Linux, sem recorrer a protocolos auxiliares para garantir a execução dos serviços e sem a necessidade de adaptações no código das aplicações nem no código do sistema operacional. Adicionalmente, os resultados comprovaram a expectativa inicial de que o algoritmo causaria pouca sobrecarga no sistema (menos de 2%), embora ele ainda apresente alta dependência do tamanho dos checkpoints salvos.
Resumo:
Este trabalho apresenta um modelo de metadados para descrever e recuperar imagens médicas na Web. As classes pertencentes ao modelo viabilizam a descrição de imagens de várias especialidades médicas, incluindo suas propriedades, seus componentes e as relações existentes entre elas. Uma das propriedades que o modelo incorpora é a classificação internacional de doenças, versão 10 (CID-10). O modelo de metadados proposto, inspirado em classes, favorece a especialização e sua implementação na arquitetura de metadados RDF. O modelo serviu de base para a implementação de um protótipo denominado de Sistema MedISeek (Medical Image Seek) que permite a usuários autorizados: descrever, armazenar e recuperar imagens na Web. Além disto, é sugerida uma estrutura persistente apropriada de banco de dados para armazenamento e recuperação dos metadados propostos.
Resumo:
Muitas abordagens para recuperação de informação (RI) assumem duas hipóteses: (i) cada termo de um documento é estatisticamente independente de todos os outros termos no texto, e (ii) métodos lingüísticos são de difícil aplicação nesta área. Contudo, há regularidades lingüísticas, produzidas pelas dependências entre termos, que precisam ser consideradas quando um texto é representado, e a representação de textos é crucial para aplicações que utilizam processamento da linguagem natural, como a RI. Um texto é mais do que uma simples seqüência de caracteres ou palavras. As palavras apresentam características morfológicas e relações de coesão que não podem ser esquecidas na descrição dos conceitos presentes no texto. Nesse sentido, um novo modelo com dependência de termos para a RI, denominado TR+, é proposto. Ele inclui: (i) nominalização, como processo de normalização lexical, e identificação de relações lexicais binárias (RLBs) e (ii) novas fórmulas para cálculo do peso das unidades de indexação (descritores). Essas fórmulas se baseiam no conceito de evidência, que leva em conta, além da freqüência de ocorrência, os mecanismos de coesão do texto. O modelo também inclui operadores Booleanos na consulta, para complementar a especificação da dependência de termos. Avaliações experimentais foram realizadas para demonstrar que (i) a nominalização apresenta melhores resultados em relação aos processos de normalização lexical usuais, (ii) a aquisição de informação lingüística, através de RLBs, e o uso de consultas Booleanas contribuem para a especificação de dependência de termos, e (iii) o cálculo da representatividade dos descritores baseado em evidência apresenta vantagens em relação ao cálculo baseado em freqüência de ocorrência. Os experimentos relatados indicam que esses recursos melhoram os resultados de sistemas de RI.
Resumo:
With the rapid growth of databases of various types (text, multimedia, etc..), There exist a need to propose methods for ordering, access and retrieve data in a simple and fast way. The images databases, in addition to these needs, require a representation of the images so that the semantic content characteristics are considered. Accordingly, several proposals such as the textual annotations based retrieval has been made. In the annotations approach, the recovery is based on the comparison between the textual description that a user can make of images and descriptions of the images stored in database. Among its drawbacks, it is noted that the textual description is very dependent on the observer, in addition to the computational effort required to describe all the images in database. Another approach is the content based image retrieval - CBIR, where each image is represented by low-level features such as: color, shape, texture, etc. In this sense, the results in the area of CBIR has been very promising. However, the representation of the images semantic by low-level features is an open problem. New algorithms for the extraction of features as well as new methods of indexing have been proposed in the literature. However, these algorithms become increasingly complex. So, doing an analysis, it is natural to ask whether there is a relationship between semantics and low-level features extracted in an image? and if there is a relationship, which descriptors better represent the semantic? which leads us to a new question: how to use descriptors to represent the content of the images?. The work presented in this thesis, proposes a method to analyze the relationship between low-level descriptors and semantics in an attempt to answer the questions before. Still, it was observed that there are three possibilities of indexing images: Using composed characteristic vectors, using parallel and independent index structures (for each descriptor or set of them) and using characteristic vectors sorted in sequential order. Thus, the first two forms have been widely studied and applied in literature, but there were no records of the third way has even been explored. So this thesis also proposes to index using a sequential structure of descriptors and also the order of these descriptors should be based on the relationship that exists between each descriptor and semantics of the users. Finally, the proposed index in this thesis revealed better than the traditional approachs and yet, was showed experimentally that the order in this sequence is important and there is a direct relationship between this order and the relationship of low-level descriptors with the semantics of the users
Resumo:
Expanded Bed Adsorption plays an important role in the downstream processing mainly for reducing costs as well as steps besides could handling cells homogenates or fermentation broth. In this work Expanded Bed Adsorption was used to recover and purify whey proteins from coalho cheese manufacture using Streamline DEAE and Streamline SP both ionic resins as well as a hydrophobic resin Streamline Phenyl. A column of 2.6 cm inner diameter with 30 cm in height was coupled to a peristaltic pump. Hydrodynamics study was carried out with the three resins using Tris-HCl buffer in concentration of 30, 50 and 70 mM, with pH ranging from 7.0 to 8.0. In this case, assays of the expansion degree as well as Residence Time Distribution (RTD) were carried out. For the recovery and purification steps, a whey sample of 200 mL, was submitted to a column with 25mL of resin previously equilibrated with Tris/HCl (50 mM, pH 7.0) using a expanded bed. After washing, elution was carried out according the technique used. For ionic adsorption elution was carried out using 100 mL of Tris/HCl (50 mM, pH 7.0 in 1M NaCl). For Hydrophobyc interaction elution was carried out using Tris/HCl (50 mM, pH 7.0). Adsorption runs were carried out using the three resins as well as theirs combination. Results showed that for hydrodynamics studies a linear fit was observed for the three resins with a correlation coefficient (R2) about 0.9. In this case, Streamline Phenyl showed highest expansion degree reaching an expansion degree (H0/H) of 2.2. Bed porosity was of 0.7 when both resins Streamline DEAE and Streamline SP were used with StremLine Phenyl showing the highest bed porosity about 0.75. The number of theorical plates were 109, 41.5 and 17.8 and the axial dipersion coefficient (Daxial) were 0.5, 1.4 and 3.7 x 10-6 m2/s, for Streamline DEAE, Streamline SP and Streamline Phenyl, respectively. Whey proteins were adsorved fastly for the three resins with equilibrium reached in 10 minutes. Breakthrough curves showed that most of proteins stays in flowthrough as well as washing steps with 84, 77 and 96%, for Streamline DEAE, Streamline SP and Streamline Phenyl, respectively. It was observed protein peaks during elution for the three resins used. According to these peaks were identified 6 protein bands that could probably be albumin (69 KDa), lactoferrin (76 KDa), lactoperoxidase (89 KDa), β-lactoglobulin (18,3 KDa) e α-lactoalbumin (14 KDa), as well as the dimer of beta-lactoglobulin. The combined system compound for the elution of Streamline DEAE applied to the Streamline SP showed the best purification of whey proteins, mainly of the α-lactoalbumina
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Pós-graduação em Ciência Animal - FMVA
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Os vegetais embalados prontos a comer têm tido uma crescente aceitação por parte do consumidor por atenderem aos requisitos contemporâneos de conveniência, segurança e salubridade. O crescimento deste setor tem levado à introdução de novos produtos e à adoção de tecnologias de conservação mais eficientes, seguras e sustentáveis [1]. O consumidor procura também alimentos com características organoléticas diferenciadas das dos alimentos habitualmente consumidos diariamente. A recuperação do uso de Rumex induratus Boiss. & Reut. (azedas) e Nasturtium officinale R. Br. (agrião) poderá responder a esta procura, aliando garantia de qualidade e inovação. Visto a maioria dos tratamentos convencionais ser ineficaz em assegurar segurança sem comprometer a qualidade, e dada a preocupação em torno dos agentes químicos vulgarmente utilizados, a irradiação de alimentos e o embalamento em atmosfera modificada têm emergido como alternativas seguras e eficazes [1-4]. Neste sentido, este estudo teve como objetivo avaliar a eficácia de diferentes atmosferas de embalamento e de diferentes doses de radiação ionizante na conservação da qualidade destas espécies durante o armazenamento refrigerado. O uso sustentável de produtos vegetais para a recuperação de biomoléculas ou produção de ingredientes funcionais de valor acrescentado é uma estratégia útil que pode ajudar a enfrentar os desafios societais deste século. Atualmente é originada uma grande quantidade de resíduos de tomate (Lycopersicon esculentum Mill.) fresco durante as várias etapas do seu ciclo produtivo, desde a cultura até ao armazenamento e venda [5]. Estes resíduos são ricos em licopeno e vitaminas, mas também em compostos fenólicos [6,7]. Estes compostos bioativos estão envolvidos na prevenção de várias patologias humanas e são de elevada importância para a indústria alimentar, farmacêutica e cosmética. Visto os métodos convencionais utilizados para a extração destas biomoléculas apresentarem várias desvantagens, novas tecnologias mais eficientes e sustentáveis têm vindo a ser adotadas. Neste sentido, este trabalho teve como objetivo otimizar as condições de extração assistida por tecnologia micro-ondas de antioxidantes hidrofílicos e lipofílicos e dos ácidos fenólicos e flavonoides maioritários da variedade de tomate redondo utilizando a metodologia de superfície de resposta (RSM).
Resumo:
Universidade Estadual de Campinas. Faculdade de Educação Física
Resumo:
OBJETIVO: o objetivo deste trabalho foi estudar as consequências da lesão por contusão da medula espinhal, associada ao estreitamento do canal vertebral, no comportamento motor de ratos, avaliando-se o efeito do tempo para descompressão na recuperação neurológica dos animais. MÉTODOS: foram utilizados ratos Wistar machos (n=6 por grupo), subdivididos nos seguintes grupos experimentais: laminectomia (T9-T10, Grupo Controle), contusão por queda de peso (10 g de peso, 15 cm de altura), estreitamento do canal vertebral em 35% (hastes de policarbonato; espessura de 0,78 mm) e contusão associada ao estreitamento do canal vertebral. O grupo de lesão associada foi ainda subdividido em sem ou com descompressão 24 ou 72 horas após a cirurgia. Os animais foram sacrificados sete dias após os procedimentos cirúrgicos. A função locomotora dos animais foi avaliada por meio do teste do campo aberto, do teste do plano inclinado e pela aplicação da escala BBB, antes da cirurgia, 24 e 72 horas depois da cirurgia e após 7 dias do procedimento cirúrgico. RESULTADOS: a lesão por queda de peso e compressão da medula espinhal, bem como a lesão mista, prejudicaram o comportamento motor dos animais, sendo que a descompressão cirúrgica após 24 e 72 horas da cirurgia não melhorou a recuperação motora dos animais, como mostram os resultados da avaliação de campo aberto, no plano inclinado e pela escala BBB. Por outro lado, os animais que sofreram lesão medular por queda de peso apresentaram melhores escores na escala BBB e ângulos maiores no plano inclinado do que aqueles que sofreram lesão por estreitamento do canal vertebral ou lesão mista. CONCLUSÕES: a lesão por queda de peso ou estreitamento do canal vertebral provocou alterações no comportamento motor dos animais, sendo que a descompressão não trouxe melhora funcional significativa.