998 resultados para Falhas de registos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta o desenvolvimento de uma metodologia para a avaliação de critérios de outorga do uso da água na bacia do rio Santa Maria. A escolha da bacia do rio Santa Maria se deve ao fato da existência de conflitos pelo uso da água, principalmente durante o verão, quando surge a demanda de água para o cultivo do arroz. A carência de dados hidrológicos, a existência de um grande número de pequenos reservatórios e a sazonalidade das demandas fazem da bacia do rio Santa Maria um caso interessante de ser estudado. É comentado o processo de evolução da outorga através das legislações, a situação atual em que se encontra a implementação deste instrumento, quais as tendências e fica estabelecida uma forma de comparação de diferentes critérios. A análise é feita de forma sistêmica (admitindo a bacia hidrográfica como unidade de planejamento) com o uso de modelos matemáticos de avaliação e gestão, particularmente modelos de simulação hidrológica, em conjunto com dados experimentais sobre o efeito de água no rendimento das culturas. A avaliação de diversos valores de outorga levando em consideração bases econômicas como custos de plantio, preços de mercado dos produtos e recorrência das falhas de atendimento associada à probabilidade de ocorrência de rendimentos líquidos não negativos revela um modelo de utilização otimizado dos recursos hídricos superficiais da bacia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta inicialmente algumas conexões transversais nos tempos de vida da investigadora, preliminares à investigação. A partir dessas conexões, foram produzidas as questões que motivaram a elaboração da investigação sobre o desejo de aprender em um grupo de sujeitos de um programa de educação de jovens e adultos, bem como a procura e escolha de um referencial teórico que permitiu acompanhar a “atualização” desse desejo ao longo dos seus diversos tempos vividos. Assim, a investigação partiu do problema de que os movimentos de “atualização” do desejo de aprender no tempo de aprendizagem de jovens e adultos não obedecem a uma ordem cronológica, mas sim aos diferentes modos de articulação do presente, passado e futuro. No processo de construção do referencial teórico para investigar a “atualização” do desejo de aprender foi escolhido como eixo central o tempo, na concepção bergsoniana de duração, na qual se produzem a diferença e a singularidade, imbricadas no movimento de criação do sujeito. Embora a escolha tenha recaído no tempo, esse é inseparável do espaço, daí que foi elaborada uma análise da sociedade capitalista globalizada da contemporaneidade. O espaço é entendido aqui como extensão onde se produz o sujeito, o qual sofre as investidas dos mecanismos econômicos e culturais hegemônicos para tentar cooptar o seu desejo, acenando-lhe com a ilusão de uma total satisfação, através do consumo. Para tanto, foram analisados alguns mecanismos utilizados para a cooptação do sujeito, tais como a omissão ou suspensão de sua memória, como meio de conhecimento individual e da humanidade, cujos desdobramentos são a construção de uma lógica da não diferença e o desrespeito à alteridade, o que caracteriza a massificação da sociedade Junto à análise da sociedade capitalista massificada foi feita também uma análise das possibilidades de novas e múltiplas formas de subjetivação produtoras de linhas de fuga à homogeneização do sujeito, de dentro da sociedade, pois não há um fora possível. As novas possibilidades foram delineadas a partir de um referencial teórico encontrado na psicanálise, com suas contribuições sobre a produção do desejo, bem como as interlocuções possíveis com a filosofia da diferença em Deleuze. Quanto à orientação metodológica da investigação, a escolha do eixo tempo levou à orientação do método intuitivo bergsoniano através da leitura feita por Deleuze, o qual utiliza o caso-pensamento que, aqui, é a educação de jovens e adultos em processo de alfabetização, separando as questões relativas ao espaço e ao tempo e privilegiando o segundo; verifica se o problema proposto é um falso ou um verdadeiro problema, esse último propõe outras questões ao longo da investigação, não busca apenas soluções; acompanha o movimento do pensamento sem ter, a priori, um modelo dividido em categorias, mas procurando vê-lo na linha da duração e da produção de uma memória ontológica. O acompanhamento do pensamento dos sujeitos foi feito através da realização de entrevistas, nas quais falaram sobre o seu passado, o seu presente e suas perspectivas futuras, tendo como eixo das perguntas o desejo de aprender. Foi delimitado um grupo de nove sujeitos que participaram da investigação e estabelecidos os três tempos para serem entrevistados: o tempo de rememoração, no início do atual período de escolarização, para lembrar suas experiências passadas em relação ao desejo de freqüentar a escola; o tempo de produção/passagem, ao final do primeiro semestre de escolarização, para falar de suas experiências atuais; o tempo de fechamento/abertura, um ano após a segunda entrevista, para fazer um balanço de suas aprendizagens e das possíveis mudanças em sua vida a partir dessas aprendizagens. Esses três tempos permitiram delinear a cartografia do movimento de “atualização” do desejo de aprender dos sujeitos investigados. Após cada tempo de entrevistas dos sujeitos foi feita uma análise do que era comum a todas as falas dos sujeitos, não no sentido de encontrar generalidades, mas relativo à existência dos movimentos do seu pensamento, constituindo-se nos três entretempos da investigadora aprender e suas conexões com a produção da diferença, do estilo e da singularidade, bem como as articulações delineadas entre o presente da aprendizagem na escola, o passado e futuro de cada sujeito. A partir das conclusões e problemáticas construídas através da análise das entrevistas, foi possível apontar para algumas indicações de como se materializam as investidas da sociedade capitalista globalizada nos movimentos capilares sociais, no caso, nos sujeitos de um programa de educação de jovens e adultos, o que se mostrou de forma não monolítica, mas com ranhuras e falhas, o que permitiu ressaltar a máxima de que “nada está decidido” a respeito do sujeito e da subjetividade no seu processo de aprendizagem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho investiga a aplicação de métodos e técnicas de correlação de alarmes na detecção e diagnóstico de falhas em sistemas supervisionados por computador. Atualmente, alguns centros de supervisão ainda não se utilizam destas técnicas para o tratamento das informações recebidas de suas redes de supervisão, ficando para os operadores a responsabilidade de identificar estas correlações. Com o crescente volume de informações recebidas pelos centros de supervisão, devido ao aumento da heterogeneidade e do número de equipamentos supervisionados, torna a identificação manual da correlação dos alarmes lenta e pouco precisa. Objetivando melhorar a qualidade do serviços prestados pelos centros de supervisões, este trabalho propõe o uso de uma rede Bayesiana como método de correlação de alarmes e uma técnica de limitação de escopo para atingir uma melhor performance na propagação desta correlação. Através dos conceitos desenvolvidos neste trabalho, foi implementado um protótipo de correlação de alarmes para um sistema de supervisão existente no mercado, neste protótipo modela-se a rede Bayesiana em um banco de dados relacional e, como resultado desta implementação apresenta-se a interface desenvolvida para a supervisão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho contempla a recuperação de serviços como instrumento para obtenção de diferencial competitivo de atendimento direto ao público para empresa de serviços de alimentação. Apresenta-se uma revisão bibliográfica dos modelos de recuperação de serviço e sua importância na estratégia das empresas. Identificam-se diferentes tipos de serviços de restaurante, com seus processos os tipos de falhas encontrados nos mesmos. Como parte do trabalho é realizado um estudo de caso em restaurante, apresentando suas características e estratégia de ação em relação à resolução de falhas no processo atendimento. O cenário da empresa, com suas características e necessidades particulares, é identificado a partir de levantamento de dados, onde são utilizadas fontes secundárias e resultados de pesquisa com os clientes da empresa.. Como resultado são estabelecidas estratégia de recuperação de serviços com ações práticas de atuação no dia-a-dia da empresa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Replicação de objetos é usada para garantir uma maior disponibilidade de recursos em um sistema distribuído. Porém, com a replicação, surgem problemas como o controle da consistência das réplicas e onde estas réplicas devem estar posicionadas. A consistência é garantida por um protocolo de consistência de réplicas. Para facilitar a implementação dos protocolos de controle de réplicas, pode-se utilizar mecanismos de comunicação de grupo como suporte para a replicação. Outro problema importante que surge com a replicação é o posicionamento das réplicas. A carga de processamento em um sistema distribuído muda continuamente e num determinado instante pode ser necessário mudar a distribuição atual das réplicas pela adição de novas réplicas, remoção de réplicas desnecessárias ou pela mudança de posicionamento das réplicas. Um sistema de gerenciamento de réplicas pode realizar esta tarefa. Este trabalho apresenta o sistema RPM – Replica Placement Manager – responsável por fornecer ao serviço de gerenciamento de réplicas uma lista ordenada de nodos potencialmente ideais, num determinado momento do processamento, para receber uma réplica de um objeto. Esta lista é criada pelo RPM, considerando um pequeno conjunto de variáveis estáticas e dinâmicas, facilmente obtidas nos nodos do sistema distribuído.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Independentemente do modelo de programação adotado, no projeto e implementação de aplicações de alta disponibilidade, faz-se necessário usar procedimentos de tolerância a falhas. Dentre as atividades que trazem consigo interesse de pesquisa na área de Tolerância a Falhas, estão os mecanismos de recuperação em um sistema computacional. Do ponto de vista prático, estes mecanismos buscam manter próximo do mínimo o tempo total de execução de aplicações computacionais de longa duração, ao mesmo tempo em que as preparam para não sofrerem perdas significativas de desempenho, em caso de falhas. Paralelamente à evolução dos sistemas computacionais, foi possível observar também a evolução das linguagens de programação, principalmente as que utilizam o paradigma orientado a objetos. O advento da área de tolerância a falhas na orientação a objetos resultou em novos problemas na atividade de recuperação quanto aos mecanismos de salvamento de estados e retomada da execução, principalmente no que se refere às dificuldades de gerenciamento e controle sobre a alocação de objetos. Entretanto, observa-se que a complexidade de implementação dos mecanismos de recuperação, por parte dos programadores, exige deles conhecimentos mais especializados para o salvamento dos estados da aplicação e para a retomada da execução. Portanto, a simplificação do trabalho do programador, através do uso de uma biblioteca de checkpointing que implemente os mecanismos de salvamento de estados e recuperação é o ponto focal deste trabalho. Diante do contexto exposto, nesta dissertação, são definidas e implementadas as classes de uma biblioteca que provê mecanismos de checkpointing e recuperação. Esta biblioteca, denominada de Libcjp, visa aprimorar o processo de recuperação de aplicações orientadas a objetos escritas na linguagem de programação Java. Esta linguagem foi escolhida para implementação devido à presença dos recursos de persistência e serialização. Para a concepção do trabalho, são considerados ambos os cenários no paradigma orientado a objetos: objetos centralizados e distribuídos. São utilizados os recursos da API de serialização Java e a tecnologia Java RMI para objetos distribuídos. Conclui-se o trabalho com a ilustração de casos de uso através de diversos exemplos desenvolvidos a partir de seus algoritmos originais inicialmente, e incrementados posteriormente com os mecanismos de checkpointing e recuperação. Os componentes desenvolvidos foram testados quanto ao cumprimento dos seus requisitos funcionais. Adicionalmente, foi realizada uma análise preliminar sobre a influência das ações de checkpointing nas características de desempenho das aplicações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento tecnológico, aliado à grande competitividade do mercado em escala mundial, tem como conseqüências diretas a elevação dos padrões de consumo e o aumento da diversidade de opções de compra por parte dos consumidores. Desta forma as empresas têm se empenhado em desenvolver sistemas de gestão robustos, porém flexíveis, que lhes proporcionem produzir bens de melhor qualidade, com diferenciais em relação aos concorrentes. A confiabilidade de um produto apresenta, sob diferentes aspectos, impacto na satisfação do consumidor, resultando como fator fundamental na decisão de compra. Além disso, as empresas têm procurado desenvolver mecanismos que propiciem criar um canal de relacionamento mais amplo junto aos seus consumidores, utilizando-se dos programas de fidelidade que têm como uma das suas principais ferramentas a extensão da garantia de produtos. Para implementar um programa de extensão de garantia, a empresa deve estar produzindo com alto nível de confiabilidade e estar em acompanhamento contínuo do desempenho destes produtos no campo. Este acompanhamento pode ser feito a partir dos dados de falha dos produtos em garantia, que possibilitam estabelecer indicadores de performance e avaliar custos relacionados às não-conformidades observadas. Este trabalho propõe, a partir de um estudo de caso, realizar a modelagem para análise da confiabilidade de um produto refrigerador freezer, com o objetivo de identificar a distribuição das falhas e estimar a confiabilidade do produto para um período de 2 (dois) anos de uso, possibilitando assim à empresa estabelecer os custos adicionais com a extensão da garantia do produto que atualmente é de 1 (um) ano. O estudo foi delineado em duas alternativas de modelagem, sendo a primeira através da adequação, estimação e simulação do modelo de distribuição de falhas e a segunda por meio da análise bayesiana de confiabilidade envolvendo o uso de distribuições a priori e a posteriori. Os resultados observados demonstram que apesar das técnicas serem distintas, as modelagens convergiram para estimativas similares e qualitativamente coerentes com os pressupostos estabelecidos pela empresa pesquisada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No projeto de arquiteturas computacionais, a partir da evolução do modelo cliente-servidor, surgiram os sistemas distribuídos com a finalidade de oferecer características tais como: disponibilidade, distribuição, compartilhamento de recursos e tolerância a falhas. Estas características, entretanto, não são obtidas de forma simples. As aplicações distribuídas e as aplicações centralizadas possuem requisitos funcionais distintos; aplicações distribuídas são mais difíceis quanto ao projeto e implementação. A complexidade de implementação é decorrente principalmente da dificuldade de tratamento e de gerência dos mecanismos de comunicação, exigindo equipe de programadores experientes. Assim, tem sido realizada muita pesquisa para obter mecanismos que facilitem a programação de aplicações distribuídas. Observa-se que, em aplicações distribuídas reais, mecanismos de tolerância a falhas constituem-se em uma necessidade. Neste contexto, a comunicação confiável constitui-se em um dos blocos básicos de construção. Paralelamente à evolução tanto dos sistemas distribuídos como da área de tolerância a falhas, foi possível observar também a evolução das linguagens de programação. O sucesso do paradigma de orientação a objetos deve-se, provavelmente, à habilidade em modelar o domínio da aplicação ao invés da arquitetura da máquina em questão (enfoque imperativo) ou mapear conceitos matemáticos (conforme o enfoque funcional). Pesquisadores demonstraram que a orientação a objetos apresenta-se como um modelo atraente ao desenvolvimento de aplicações distribuídas modulares e tolerantes a falhas. Diante do contexto exposto, duas constatações estimularam basicamente a definição desta dissertação: a necessidade latente de mecanismos que facilitem a programação de aplicações distribuídas tolerantes a falhas; e o fato de que a orientação a objetos tem-se mostrado um modelo promissor ao desenvolvimento deste tipo de aplicação. Desta forma, nesta dissertação definem-se classes para a comunicação do tipo unicast e multicast, nas modalidades de envio confiável e não-confiável. Além destes serviços de comunicação básicos, foram desenvolvidas classes que permitem referenciar os participantes da comunicação através de nomes. As classes estão organizadas na forma de um pacote, compondo um framework. Sua implementação foi desenvolvida usando Java. Embora não tivessem sido requisitos básicos, as opções de projeto visaram assegurar resultados aceitáveis de desempenho e possibilidade de reuso das classes. Foram implementados pequenos trechos de código utilizando e testando a funcionalidade de cada uma das classes de comunicação propostas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho trata da utilização de protocolos de comunicação de grupo para a disseminação de escritas em arquivos replicados. A replicação de arquivos tem como objetivo aumentar a disponibilidade dos dados mesmo mediante a ocorrência de alguma falha. Existem duas abordagens principais para a replicação de arquivos: a da cópia primária e das cópias ativas. Em ambas as abordagens é necessário que seja mantida a integridade dos dados replicados, de forma que todos cópias dos arquivos replicados estejam no mesmo estado. Essa integridade pode ser mantida pela escolha correta de uma estratégia de disseminação de escritas. Como os servidores que mantém cópias do mesmo arquivo formam um grupo de replicação, a disseminação de escritas pode ser feita através de comunicação de grupos. Neste trabalho são apresentados os sistemas de comunicação de grupo xAMp, da Universidade de Lisboa; Totem, Universidade da Califórnia; Transis da Universidade de Hebréia de Jerusalém; Horus, da Universidade de Cornell e Newtop da Universidade de Newcastle. Todos os sistemas descritos possuem características de comunicação de grupo e membership que permitem a sua utilização na disseminação de escritas para arquivos replicados. Este trabalho descreve, também, o protótipo PDERM (Protótipo para a Disseminação de Escritas em arquivos Replicados, através de Multicast), implementado para analisar o comportamento de um sistema de comunicação de grupo, o xAMp, na disseminação de escritas em arquivos replicados pela estratégia da cópia primária. Foi analisado o aspecto da manutenção da integridade das réplicas mesmo na ocorrência de falha do servidor primário.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho estuda a aplicação parcial do modelo de excelência em prestação de serviços proposto por SILVA (1997) no núcleo de engenharia e arquitetura do Banco do Brasil S.A. em Porto Alegre (NUCEN Porto Alegre). O foco do estudo é o bloco “Ouvindo clientes, especialistas e planos” do modelo relatado, especialmente o tópico “Ouvindo clientes”. Para tanto, foi realizada uma pesquisa junto aos clientes do NUCEN Porto Alegre (todas as agências, órgãos regionais e postos de atendimento avançado do Banco do Brasil S.A. no estado do Rio Grande do Sul). Os resultados da pesquisa foram analisados por atributo (total de 27), que depois foram agrupados entre 9 critérios competitivos (acesso, atendimento/atmosfera, velocidade do atendimento, tangíveis, flexibilidade, preço/custo, competência, consistência e credibilidade/segurança). Posteriormente, os resultados foram analisados por região geográfica de atendimento (A, B, C, D, E, F, G e H) e, finalmente, por categoria das dependências (agências de níveis 1, 2, 3 e 4, além de órgãos regionais/postos de atendimento avançado), obtendo-se a indicação de esforços de melhoria nos seguintes pontos • Em relação aos 27 atributos da pesquisa: velocidade de atendimento para serviços de manutenção de ar condicionado (atributo 8); velocidade de atendimento para serviços de manutenção de porta giratória (atributo 9); custo das obras de reformas e serviços de conservação predial (atributo 19); recuperação de falhas quando há reclamação por serviços não prestados adequadamente (atributo 18); qualificação, conhecimento e experiência dos profissionais das empresas contratadas (atributo 25); custo para manutenção de porta giratória (atributo 21); e custo para manutenção de ar condicionado (atributo 20); • Em relação aos atributos da pesquisa agrupados entre os 9 critérios competitivos: custo e velocidade de atendimento; • Em relação às 8 regiões de atendimento: atendimento às dependências da região A; e • Em relação às 5 categorias das dependências: atendimento às agências de níveis 1 e 2. Com base nos resultados obtidos na pesquisa, o autor propõe diversas ações de melhoria de desempenho para implementação no NUCEN Porto Alegre (RS).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho propõe-se a avaliar a integração do Mercosul em seus primeiros dez anos de existência, sob uma expectativa de que esta integração foi bem sucedida. A hipótese presente é a de que a ampliação do mercado que a integração propiciou tenha permitido criar estímulos à construção de vantagens competitivas e melhorar a inserção internacional das economias integradas. Busca-se aplicar os avanços recentes do pensamento acadêmico que inter-relaciona os temas comércio internacional, tecnologia e competitividade como meio de construir vantagem competitiva. O estudo está centrado na questão da competitividade das exportações. Na maioria das análises trabalha-se com a base de dados de comércio internacional CUCI (Classificação Uniforme para o Comércio Exterior) e a metodologia CAN2000 (Competitiveness Analysis of Nations) da Divisão Cepal/Onudi de Indústria e Tecnologia, para avaliar o impacto da integração em setores industriais. O âmbito teórico para ajudar nessa análise e ao qual o presente trabalho se insere encontra-se dentro do campo analítico da abordagem neo-schumpeteriana. A abordagem permite a discussão das estratégias empresariais, o papel da inovação e da concorrência na criação de vantagens competitivas, as diferenças de comportamento entre firmas em um mesmo setor, a presença de falhas de mercado, os diferentes processos de acumulação de experiência e aprendizagem por parte das firmas, os regimes tecnológicos, a complexidade institucional, as incertezas que cercam a conduta tecnológica e inovativa das empresas, as transformações nos ambientes econômicos, entre outros elementos, que auxiliaram a interpretar as mudanças do padrão de especialização e da estrutura da indústria no âmbito do Mercosul. Conclui-se que a integração per se motivou a melhora competitiva, mas em ritmo lento, o que leva a propor que devam ser adotadas medidas complementares para expandir as exportações, mediante apoio a setores selecionados entre os de maior crescimento do comércio mundial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo objetivou investigar o funcionamento da memória implícita e explícita em deficientes mentais por Síndrome de Down (SD) comparados com indivíduos deficientes mentais de outras etiologias (DM) e crianças de desenvolvimento típico de mesma idade mental (DT). Foram administrados testes de procedimento viso-espacial e pré-ativação para avaliar memória implícita e testes de memória episódica explícita para material verbal e viso-espacial a 12 sujeitos SD, 12 DM e 12 DT. Considerando o sistema de múltiplas memórias, procurou-se investigar quais estariam preservadas ou falhas nos três grupos. Os resultados demonstraram diferenças nítidas entre os grupos. Percebeu-se uma defasagem significativa de memória implícita na SD, um melhor desempenho de memória implícita nos DM e de memória explícita nas crianças DT. Estes resultados revelam um grande prejuízo implícito na SD, mas também defasagem explícita, reforçando a necessidade de estimulação precoce a esta população. Implicações para o trabalho pedagógico serão discutidas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O uso da recuperação de processos para obter sistemas computacionais tolerantes a falhas não é um assunto novo. Entretanto, a discussão de algoritmos para a recuperação em sistemas distribuídos, notadamente aqueles que se enquadram na categoria assíncrona, ainda encontra pontos em aberto. Este é o contexto do presente trabalho. Este trabalho apresenta um novo algoritmo de recuperação por retorno, em sistemas distribuídos. O algoritmo proposto é do tipo coordenado, e seus mecanismos componentes determinam que seja classificado como um algoritmo baseado em índices (index-based coordinated). Desta forma, a tolerância a falhas é obtida através do estabelecimento de linhas de recuperação, o que possibilita um retorno consideravelmente rápido, em caso de falha. Seu desenvolvimento foi feito com o objetivo de minimizar o impacto ao desempenho do sistema, tanto quando este estiver operando livre de falhas como quando ocorrerem as falhas. Além disso, os mecanismos componentes do algoritmo foram escolhidos visando facilitar a futura tarefa de implementação. A satisfação dos objetivos decorre principalmente de uma importante característica assegurada pelos mecanismos propostos no algoritmo: o não bloqueio da aplicação, enquanto é estabelecida uma nova linha de recuperação. Esta característica, associada ao rápido retorno, oferece uma solução promissora, em termos de eficiência, para a recuperação, um vez que o impacto no desempenho tende a ser reduzido, quando o sistema encontra-se operando em ambas condições: livre de erros ou sob falha. Diferentemente da maioria dos algoritmos coordenados encontrados na literatura, o algoritmo proposto neste trabalho trata as mensagens perdidas. A partir da análise das características das aplicações, bem como dos canais de comunicação, quando estes interagem com o algoritmo de recuperação, concluiu-se que os procedimentos usados para recuperação de processos devem prever o tratamento desta categoria de mensagens. Assim, o algoritmo proposto foi incrementado com um mecanismo para tratamento das mensagens que têm o potencial de tornarem-se perdidas, em caso de retorno, ou seja, evita a existência de mensagens perdidas. Uma das decisões tomadas durante o desenvolvimento do algoritmo foi a de permitir um processamento não determinístico. Na realidade, esta escolha visou o aumento do espectro das falhas que poderiam ser tratadas pela recuperação. Tradicionalmente, a recuperação por retorno é empregada para tolerar falhas temporárias. Entretanto, a diversidade de ambiente, freqüente nos SDs, também pode ser usada para tolerar algumas falhas permanentes. Para verificar a correção do algoritmo, decidiu-se empregar um formalismo existente. Assim, a lógica temporal de Lamport (TLA) foi usada na especificação dos mecanismos do algoritmo bem como em sua demonstração de correção. O tratamento referente às mensagens perdidas, atrav´es do uso de mensagens de resposta, associado com o uso de uma lógica temporal, levou à necessidade de rever os critérios de consistência. Esta revisão gerou um conjunto de fórmulas de consistência ajustadas à existência de mensagens de diferentes classes: mensagens da aplicação e mensagens de resposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os revestimentos são, do ponto de vista funcional, integrantes das vedações e fundamentais para a durabilidade dos edifícios, contribuindo para o bom aspecto das fachadas. A identificação e correção das possíveis falhas certamente aumentam o grau de satisfação da população de maneira geral por sua contribuição para a estética da cidade, além de contribuir para aumentar a vida útil do produto e de seu valor comercial. Este trabalho apresenta os resultados de levantamento de dados realizado em edificações da zona urbana da cidade de Pelotas, com o objetivo de levantar dados sobre as manifestações patológicas nos revestimentos de seus paramentos exteriores, identificando aspectos relacionados aos materiais, tipo de lesões, incidência, etc. Por meio de observação in loco, foram analisadas 424 fachadas de edificações, sendo os dados coletados com o auxílio de um instrumento composto por duas fichas: a primeira, dividida em duas partes, serviu para identificar o responsável pelo seu preenchimento, bem como para identificar e caracterizar a edificação, enquanto que a segunda ficha, serviu para caracterizar as lesões encontradas nos revestimentos. Os dados coletados foram analisados por meio do software estatístico SPSS. As informações foram organizadas em dois bancos de dados, um para registro das informações referentes à edificação e outro para as informações referentes às lesões. Os resultados permitiram concluir que as edificações analisadas, de um modo geral, foram construídas antes de 1970, com paredes de tijolos cerâmicos, revestidas com argamassas inorgânicas e pintadas, cobertura de telhas cerâmicas, esquadrias de madeira e para uso residencial. O estado de conservação é razoável, apresentando com mais freqüência, três lesões por fachada. As lesões mais freqüentes são: manchas de sujeira ou vegetação parasitária, umidade ascensional, descolamento em placas, descoloração e fissuras.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mecanismos de comunicação entre processos são fundamentais no desenvolvimento de sistemas distribuídos, já que constituem o único meio de compartilhar dados entre processos que não dispõem de memória comum. Um dos principais mecanismos de comunicação utilizados é a troca de mensagens entre os processos componentes do sistema. Existem muitas aplicações que são compostas por um conjunto de processos que cooperam para realizar uma determinada tarefa e que são mais facilmente construídas se o sistema operacional oferecer a possibilidade de se enviar uma mensagem a diversos destinos. Neste caso são necessários mecanismos que permitam a difusão confiável de uma mensagem para um grupo de processos em uma única operação. Tendo em vista esta necessidade, diversos protocolos têm sido apresentados na literatura para permitir a comunicação entre um grupo de processos com diferentes graus de complexidade e de desempenho. Este trabalho apresenta um ambiente para desenvolvimento e utilização de protocolos de comunicação em grupo, denominado FlexGroup. O ambiente divide os protocolos em suas características fundamentais, permitindo que estas características possam ser desenvolvidas separadamente como subprotocolos. Os subprotocolo são interligados através de uma interface comum e gerenciados pelo núcleo do ambiente. A comunicação entre as diversas máquinas da rede é gerenciada pelo FlexGroup, permitindo que o desenvolvedor de um novo subprotocolo possa somente se focar nas características específicas do seu protocolo. Esta modularidade permite, ainda, que apenas as partes de interesse de um novo protocolo precisem ser implementadas, além de também viabilizar a criação de um protocolo baseado nos já existentes no ambiente. Além disso, o ambiente permite que as aplicações de comunicação em grupo possam definir, através de uma biblioteca, o conjunto de subprotocolos que desejam utilizar, em tempo de execução, sem necessidade de conhecer a implementação interna dos subprotocolos.. Da mesma forma, alguém que se proponha a realizar comparações com os protocolos existentes, pode utilizar os diversos subprotocolos e as aplicações existentes, bastando alterar os protocolos utilizados em tempo de execução e avaliando somente as características que deseje analisar.